145 resultados para Conto, Oralidade e Fábula
Resumo:
Il presente lavoro di tesi ha avuto come obiettivo la valutazione della qualità dei suoli in oliveti siciliani in relazione a differenti metodi di gestione agronomica. In particolare, quello che si è inteso valutare sono stati gli effetti di sistemi di produzione agricola quali l’agricoltura convenzionale e l’agricoltura biologica sulle caratteristiche chimiche, fisiche e biologiche dei suoli. La qualità dei suoli è stata valutata integrando alle analisi chimico fisiche anche un metodo biologico basato sui microartropodi (QBS-ar). Il metodo è fondato sul concetto che maggiore è la qualità del suolo, maggiore è il numero di gruppi sistematici di microartropodi che presentano adattamenti alla vita ipogea. I nostri risultati evidenziano come l’agricoltura biologica possa diventare impattante tanto quanto l’agricoltura convenzionale, dal punto di vista della conservazione della fertilità dei suoli e della biodiversità, nel momento in cui viene a mancare una gestione che tenga conto delle caratteristiche intrinseche di un agroecosistema. Si è visto come un degrado della struttura fisica, che porti alla perdità di porosità, si possa ripercuotere negativamente sulla comunità dei microartropodi. Alcuni gruppi sistematici sembra possano essere più sensibili di altri a stress indotti dalla compattazione dei suoli, in particolare nel nostro studio questi gruppi sistematici risultano essere: Proturi, Ditteri (larve), Opilionidi, Diplopodi e Sinfili. Riguardo all’indicatore di qualità biologica del suolo QBS-ar, uno dei limiti che emerge nell’assegnazione della classe di qualità è rappresentato dal fatto che ogni valore dell’indice ottenuto non discrimina una classe in maniera univoca, ma i diversi Enti che utilizzano questo indicatore (ARPA, Università) hanno elaborato a livello interno i criteri per l’assegnazione della classe di qualità, rendendola un parametro non oggettivo per la valutazione della qualità dei suoli.
Resumo:
Il Woodpecker di Milano Marittima, discoteca degli anni sessanta realizzata dall'Architetto Filippo Monti sotto commissione di Aurelio De Maria, la discoteca è stata in funzione solo per due stagioni. Ora l'edificio si trova in uno stato di completo abbandono ricoperto da una fiorente vegetazione spontanea. La tesi parte dall'analisi del manufatto, del suo stato di conservazione e delle problematiche riscontate nel luogo, prima tra tutte la presenza d'acqua. Questa tesi ha lo scopo di ridare vita a questo luogo tenendo conto della presenza di vegetazione spontanea presente. Nella prima parte della tesi vengono affrontati i problemi e gli interventi legati alla conservazione, nella seconda viene fatta una proposta di progetto comprendente: un nuovo ingresso al parco, un ristorante, un percorso, e un nuovo accesso al Woodpecker, sfruttando un crollo presente al centro del vano servizi. In questo progetto le problematiche inizialmente riscontrate, quali la presenza di acqua e di vegetazione, diventano le potenzialità principali dell'area.
Resumo:
Gli occhi dei Cetacei mostrano delle caratteristiche morfofunzionali necessarie per la vita in ambiente acquatico. Sebbene le caratteristiche strutturali dell’occhio dei Cetacei siano state in passato oggetto di studio, i dati relativi alle caratteristiche istologiche e morfometriche della tonaca fibrosa appaiono, allo stato attuale, poco numerosi e non chiaramente noti in tutti i Delfinifi. Per questo motivo è stato condotto il presente studio che, mediante l’uso della microscopia ottica e di opportuni software di analisi immagine, ha studiato le caratteristiche strutturali e morfometriche della cornea e della sclerotica nel Tursiope (Tursiops truncatus) e nella Stenella striata (Stenella coeruleoalba). La presente ricerca è stata condotta su due Delfinidi, il Tursiope (Tursiops truncatus) (2 soggetti) e la Stenella striata (Stenella coeruleoalba) (1 soggetto). La cornea di Tursiope e Stenella striata mostra la struttura base presente negli altri Mammiferi; essa infatti, dall'esterno verso l'interno, appare costituita dai seguenti cinque strati: epitelio corneale, membrana basale, sostanza propria, membrana di Descemet ed endotelio. Nonostante le caratteristiche istologiche osservabili nei singoli strati non si differenzino da quelle presenti nei Mammiferi terrestri, esistono notevoli differenze per quanto riguarda lo spessore. La cornea di Tursiope e di Stenella striata, come accade per altri Cetacei, mostra uno spessore decisamente maggiore rispetto a quella presente dei Mammiferi terrestri. Come in questi ultimi, lo strato che contribuisce maggiormente a fornire spessore alla cornea è rappresentato dalla sostanza propria. Lo spessore della cornea del Tursiope e della Stenella striata, come osservato in generale nei Cetacei, è maggiore alla periferia rispetto al centro. Tale dato è simile a quanto osservato nel Cavallo, ma si differenzia completamente dalla situazione osservabile in altri Mammiferi terrestri, dove lo spessore della cornea è maggiore al centro (Bovino, Maiale e Cane) o si presenta uniforme per tutta la sua estensione (Gatto, Pecora e Coniglio). Nel Tursiope e nella Stenella striata la parte periferica della cornea, essendo più ispessita di quella centrale, mostra un indice di rifrazione maggiore. Questa caratteristica, unita al fatto che la faccia posteriore è più curva di quella anteriore, rende la cornea una lente divergente in grado di compensare il potere rifrattivo del cristallino. In questo modo l’occhio diventa emmetrope in ambiente subacqueo. Nel Tursiope e nella Stenella striata, come del resto in molti Cetacei, la sclerotica è particolarmente ispessita. Lo spessore della sclerotica è particolarmente evidente nella sua parte posteriore. Tale adattamento svolge probabilmente il ruolo di proteggere l’occhio dalle variazioni di pressione legate all'immersione, tenuto conto anche dell'assenza di una vera e propria orbita di natura ossea.
Resumo:
In questo lavoro viene presentato un recente modello di buco nero che implementa le proprietà quantistiche di quelle regioni dello spaziotempo dove non possono essere ignorate, pena l'implicazione di paradossi concettuali e fenomenologici. In suddetto modello, la regione di spaziotempo dominata da comportamenti quantistici si estende oltre l'orizzonte del buco nero e suscita un'inversione, o più precisamente un effetto tunnel, della traiettoria di collasso della stella in una traiettoria di espansione simmetrica nel tempo. L'inversione impiega un tempo molto lungo per chi assiste al fenomeno a grandi distanze, ma inferiore al tempo di evaporazione del buco nero tramite radiazione di Hawking, trascurata e considerata come un effetto dissipativo da studiarsi in un secondo tempo. Il resto dello spaziotempo, fuori dalla regione quantistica, soddisfa le equazioni di Einstein. Successivamente viene presentata la teoria della Gravità Quantistica a Loop (LQG) che permetterebbe di studiare la dinamica della regione quantistica senza far riferimento a una metrica classica, ma facendo leva sul contenuto relazionale del tessuto spaziotemporale. Il campo gravitazionale viene riformulato in termini di variabili hamiltoniane in uno spazio delle fasi vincolato e con simmetria di gauge, successivamente promosse a operatori su uno spazio di Hilbert legato a una vantaggiosa discretizzazione dello spaziotempo. La teoria permette la definizione di un'ampiezza di transizione fra stati quantistici di geometria spaziotemporale, applicabile allo studio della regione quantistica nel modello di buco nero proposto. Infine vengono poste le basi per un calcolo in LQG dell'ampiezza di transizione del fenomeno di rimbalzo quantistico all'interno del buco nero, e di conseguenza per un calcolo quantistico del tempo di rimbalzo nel riferimento di osservatori statici a grande distanza da esso, utile per trattare a posteriori un modello che tenga conto della radiazione di Hawking e, auspicatamente, fornisca una possibile risoluzione dei problemi legati alla sua esistenza.
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
Recentemente molti studi in ambiente marino sono stati focalizzati sui possibili impatti dovuti alle variazioni del pH degli oceani, causato dall’aumento delle immissioni di CO2 nell’atmosfera. Tra i possibili effetti nocivi, l’acidificazione oceanica può indurre cambiamenti nelle abbondanze e nelle distribuzioni delle engeneer species, con conseguenti ripercussioni sulla fauna associata. Esempio tipico di engeneer species sono le macroalghe che sono capaci di creare, lungo le coste rocciose, habitat diversi a seconda della specie che riesce ad attecchire. Tra le specie animali che dominano in questi habitat troviamo i copepodi Arpacticoidi, piccoli crostacei che svolgono un ruolo chiave all’interno delle reti trofiche. Per questi motivi lo scopo di questo lavoro è valutare possibili effetti dell’acidificazione sulle taxocenosi a copepodi Arpacticoidi associate alle macroalghe. Lo studio è stato svolto ad Ischia, nella zona nei pressi del Castello Aragonese, dove vi sono dei vents di origine vulcanica che emettono CO2 e formano un gradiente naturale di acidificazione lungo un’area di circa 300m, suddivisibile in 3 stazioni a differenti valori medi di pH. L’analisi delle taxocenosi è stata svolta a livello di generi e famiglie di Arpacticoidi, in termini di abbondanze e di struttura di comunità, su differenti specie algali raccolte lungo il gradiente di acidificazione. Mentre non si notano differenze significative per le famiglie, la struttura di comunità analizzata a livello di generi di copepodi Arpacticoidi mostra una suddivisione in due comunità ben distinte, delle quali una appartenente alla stazione acidificata e un'altra alle stazioni di controllo e moderatamente acidificata. Tale suddivisione si conferma anche prendendo in considerazione la diversa complessità strutturale delle alghe. Per quanto riguarda le abbondanze, sia a livello di famiglie che di generi, queste mostrano generalmente valori più elevati nella stazione moderatamente acidificata e valori più bassi nella stazione più acidificata. C’è però da considerare che se non si tiene conto della complessità algale queste differenze sono significative per le famiglie Ectinosomatidae, Thalestridae e per il genere Dactylopusia, mentre, se si tiene conto della complessità algale, vi sono differenze significative per la famiglia Miraciidae e per i generi Amonardia e Dactylopusia. In definitiva questo studio sembrerebbe evidenziare che le taxocenosi a copepodi Arpacticoidi siano influenzate sia dalla differente complessità algale, che dall’acidificazione oceanica. Inoltre mostra che, in prospettiva di studi futuri, potrebbe essere necessario focalizzarsi su specie algali ben definite e su un'analisi tassonomica dei copepodi Arpacticoidi approfondita fino al livello di specie.
Resumo:
I cambiamenti climatici stanno sempre più influenzando l’assetto territoriale ed ambientale della nostra società. Questo fatto si evince da eventi che riescono a sconvolgere le opere atte alla loro mitigazione; tali sistemi vengono progettati tenendo conto delle competenze acquisite in campo teorico e archivistico, ovvero la serie dei dati storici sui quali costruire dei modelli probabilistici che permettano di determinare il massimo grado di intensità che l'evento di interesse potrà generare. Questi database, però, conseguentemente ai cambiamenti ambientali cui stiamo avendo testimonianza diretta, risultano essere sempre meno affidabili allo scopo di impostare questi studi di tendenza. Esempio di quanto detto sono le alluvioni, generate da eventi meteorologici fuori dall'ordinario: queste situazioni, sempre più frequenti sul nostro territorio, oltre che subire l'influsso dei cambiamenti climatici, trovano un substrato favorevole nel quale attecchire, dovuto dall'alto grado di antropizzazione del territorio. In questo ambito, rientrano quegli eventi che i media chiamano "bombe d'acqua", le quali scaricano su un piccolo territorio una massiccia quantità di acque di precipitazione in un arco di tempo estremamente limitato. L'effetto principale è quello di mettere in crisi la rete idrologica della zona colpita, la quale non è stata progettata per sopportare eventi di tale magnitudo. Gli effetti avversi sul territorio possono essere importanti e vantano una vasta gamma di effetti. Inondazioni ed allagamenti in primis, poi i conseguenti da danni economici, ma anche smottamenti o colate di fango ed il collasso dei sistemi fognari. In questo lavoro di tesi, queste problematiche saranno trattate col fine ultimo di valutare delle soglie di precipitazioni, tali per cui, in caso di eventi meteorologici fuori dall’ordinario, sarà possibile allertare la popolazione localizzata nella zona soggetta a rischio idro-geologico. Questa analisi è stata condotta grazie ai dati reperiti per un piccolo bacino pedecollinare del Comune di Rimini.
Resumo:
La tesi riguarda l'analisi della vulnerabilità sismica degli aggregati edilizi del centro storico di Pergola, condotta in termini di valutazione analitica e speditiva. Il metodo di analisi si basa sulla proposta di A.Giuffrè per la definizione dei possibili meccanismi di danno associati all'azione sismica. Oltre alla definizione degli indici globali di vulnerabilità sismica si propongono metodi per tenere conto, nel metodo, del contributo dell'indice di qualità muraria, al fine di poter confrontare realtà geo-materiali anche molto differenti.
Resumo:
La stima della frequenza di accadimento di eventi incidentali di tipo random da linee e apparecchiature è in generale effettuata sulla base delle informazioni presenti in banche dati specializzate. I dati presenti in tali banche contengono informazioni relative ad eventi incidentali avvenuti in varie tipologie di installazioni, che spaziano dagli impianti chimici a quelli petrolchimici. Alcune di queste banche dati risultano anche piuttosto datate, poiché fanno riferimento ad incidenti verificatisi ormai molto addietro negli anni. Ne segue che i valori relativi alle frequenze di perdita forniti dalle banche dati risultano molto conservativi. Per ovviare a tale limite e tenere in conto il progresso tecnico, la linea guida API Recommended Pratice 581, pubblicata nel 2000 e successivamente aggiornata nel 2008, ha introdotto un criterio per determinare frequenze di perdita specializzate alla realtà propria impiantistica, mediante l’ausilio di coefficienti correttivi che considerano il meccanismo di guasto del componente, il sistema di gestione della sicurezza e l’efficacia dell’attività ispettiva. Il presente lavoro di tesi ha lo scopo di mettere in evidenza l’evoluzione dell’approccio di valutazione delle frequenze di perdita da tubazione. Esso è articolato come descritto nel seguito. Il Capitolo 1 ha carattere introduttivo. Nel Capitolo 2 è affrontato lo studio delle frequenze di perdita reperibili nelle banche dati generaliste. Nel Capitolo 3 sono illustrati due approcci, uno qualitativo ed uno quantitativo, che permettono di determinare le linee che presentano priorità più alta per essere sottoposte all’attività ispettiva. Il Capitolo 4 è dedicato alla descrizione della guida API Recomended Practice 581. L’applicazione ad un caso di studio dei criteri di selezione delle linee illustrati nel Capitolo 3 e la definizione delle caratteristiche dell’attività ispettiva secondo la linea guida API Recomended Practice 581 sono illustrati nel Capitolo 5. Infine nel Capitolo 6 sono rese esplicite le considerazioni conclusive dello studio effettuato.
Resumo:
Negli ultimi due decenni i microcanali hanno un'ampia gamma di applicazioni pratiche in ambiti specializzati, come le micropompe, l’ingegneria biomedica, la microfluidica, ecc. Quindi il miglioramento della capacità di scambio termico è molto significativo e, per questo motivo, è interessante studiare come influisce sullo scambio termico la variazione della geometria dei microcanali. Per descrivere le prestazioni associate ad una superficie di scambio termico ci si riferisce a dei parametri adimensionali. Ad esempio, si possono utilizzare numero di Poiseuille fRe e numero di Nusselt Nu, a cui sono associate, rispettivamente, le prestazioni in termini di attrito meccanico e di scambio termico convettivo della superficie. E si vedrà il comportamento termoidraulico al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE. L’ottimizzazione delle sezioni di microcanali attraverso i Performance Evaluation Criteria (PEC) è basata su un’analisi condotta dal punto di vista della prima legge della termodinamica: l'ottimizzazione della funzione obiettivo è il suo unico scopo. Ma non ha tenuto conto dell’entropia generata nello scambiatore, che varia dopo l’ottimizzazione. Poiché l’entropia prodotta da un generico sistema termodinamico è direttamente legata alle perdite per irreversibilità nello stesso, quindi coincide l’efficienza del sistema dal punto di vista termodinamico. Per questo motivo, Bejan propone una procedura di ottimizzazione basata sulla seconda legge della termodinamica, in cui anche l’entropia è trattata come una funzione obiettivo che dovrà essere sempre minimizzata. Dopo una prima fase di analisi dal punto di vista fisico, il modello è stato applicato a casi concreti, in cui funzione obiettivo e numero di generazione entropica sono stati espressi in dipendenza dell’incognita geometrica da valutare.
Resumo:
Nel dibattito riguardante la valorizzazione delle aree archeologiche il ruolo della museografia quale disciplina capace di conciliare saperi come quello archeologico e quello architettonico,e ancora, tra la cultura conservativa e quella progettuale. All' interno del laboratorio di laurea è stato sviluppato un progetto per il sito archeologico della città romana di Suasa che oltre a tenere conto delle tematiche generali attinenti alle più recenti posizioni della disciplina architettonica e museografica in rapporto all’archeologia, dia delle risposte progettuali calate all’interno di un preciso contesto culturale e territoriale. I nuovi manufatti devono sapersi relazionare ai caratteri del luogo in cui si collocano, aree poste in contesti esterni in una dimensione paesaggistica e culturale complessa e stratificata. Luogo e paesaggio costituiscono quindi i termini generali di un’indagine che assume il valore di una ricerca progressiva finalizzata alla conoscenza decisiva per la progettazione, di realtà fortemente caratterizzate dalla dimensione archeologica paesaggistica.
Outdoor e indoor: Abitare il comfort. Strategie di riqualificazione del quartiere Pilastro a Bologna
Resumo:
Il caso studio affrontato nella tesi è il complesso residenziale Pilastro, costruito tra gli anni 1962 e 1985 a Bologna. Collocato nella parte nord-est della città, all’interno del quartiere San Donato, il quartiere si presenta come una delle periferie più adatte ad ospitare i nuovi progetti di sviluppo urbano, in virtù della sua posizione strategica rispetto ai diversi poli e alla rete infrastrutturale principale. Questo studio consiste in una serie di analisi, effettuate al fine di giungere a trattare gli aspetti progettuali, che rispondono a una serie di problematiche riscontrate nella parte conosciuta come “Primo Impianto”. Le criticità affrontate sono: - Fenomeno di Canyon Urbano dovuto al rapporto tra la morfologia urbana e il microclima; - Limiti nella fruibilità degli spazi esterni (outdoor), a causa della presenza di spazi non caratterizzati, dotati di uno scarso livello di comfort termico durante il periodo estivo; - Problemi riguardo l’aspetto viabilistico e le sezioni stradali; - Bassa prestazione energetica correlata alla vetustà degli edifici; - Basso livello di comfort interno (indoor) degli edifici. La Tesi ha come obiettivo la definizione di diverse strategie progettuali che tengano conto delle condizioni climatiche relative al benessere termico come criterio per la riqualificazione degli spazi esterni e degli edifici esistenti. Quest’ultima terrà altresì conto della prestazione energetica dei fabbricati. Un aspetto complementare è quello del ragionamento sull’incidenza della progettazione degli spazi esterni (outdoor) sugli aspetti relativi al benessere negli spazi interni (indoor). Metodo L’approccio seguito nel trattare le problematiche ha come punto di partenza lo studio degli spazi esterni, che continua anche al livello del costruito. Attraverso diverse analisi a livello urbanistico, sono stati indagati una serie di aspetti come la morfologia urbana, i servizi, gli spazi aperti, la popolazione e la mobilità, etc. Il comparto studio, collocato nella parte nord-est del Primo Impianto in Via Lodovico Frati, è composto da edifici residenziali in linea e lo spazio “in between” che si affaccia alla strada. Al fine di considerare le condizioni climatiche e la loro incidenza nel comfort urbano, sono stati studiati diversi parametri fisici incidenti, valutati con l’ausilio del software di simulazione Envi-met, con l’output di cui, è stato possibile ottenere mappe di valori del comfort outdoor, sia della condizione esistente che in quella dopo l’intervento progettuale. Per quanto riguarda gli edifici, per valutare il livello di comfort negli ambienti interni è stato usato il software di simulazione EnergyPlus, mentre per valutare la prestazione energetica è stato usato il software Termolog Epix 5. L’output dei risultati ottenuti dai software di simulazione è uno strumento importante di verifica per le diverse scelte progettuali.
Resumo:
Nei capitoli I e II ho costruito rigorosamente le funzioni circolari ed esponenziali rispettivamente attraverso un procedimento analitico tratto dal libro Analisi Matematica di Giovanni Prodi. Nel III capitolo, dopo aver introdotto il numero di Nepero e come limite di una particolare successione monotona, ho calcolato i limiti notevoli dell'esponenziale e della sua inversa, che sono alla base del calcolo differenziale di queste funzioni, concludendo poi la sezione dimostrando l'irrazionalità del numero e, base dei logaritmi naturali. Nel capitolo successivo ho dato, delle funzioni circolari ed esponenziali, i rispettivi sviluppi in serie di Taylor ma solamente nel V capitolo potremo renderci veramente conto di come i risultati ottenuti siano fra loro dipendenti. In particolare verrà messa in evidenza come il legame del tutto naturale che si osserva fra le funzioni circolari e le funzioni esponenziali rappresenta le fondamenta di argomenti molto notevoli e pieni di significato, come l'estensione ai numeri complessi dell'esponenziale o le celebri identità di Eulero. L'ultimo capitolo vedrà come protagonista pi greco, così misterioso quanto affascinante, che per secoli ha smosso gli animi dei matematici intenzionati a volerne svelare la natura. Come per il numero di Nepero, non potrà mancare un paragrafo dedicato alla dimostrazione della sua non razionalità.
Resumo:
Scopo della modellizzazione delle stringhe di DNA è la formulazione di modelli matematici che generano sequenze di basi azotate compatibili con il genoma esistente. In questa tesi si prendono in esame quei modelli matematici che conservano un'importante proprietà, scoperta nel 1952 dal biochimico Erwin Chargaff, chiamata oggi "seconda regola di Chargaff". I modelli matematici che tengono conto delle simmetrie di Chargaff si dividono principalmente in due filoni: uno la ritiene un risultato dell'evoluzione sul genoma, mentre l'altro la ipotizza peculiare di un genoma primitivo e non intaccata dalle modifiche apportate dall'evoluzione. Questa tesi si propone di analizzare un modello del secondo tipo. In particolare ci siamo ispirati al modello definito da da Sobottka e Hart. Dopo un'analisi critica e lo studio del lavoro degli autori, abbiamo esteso il modello ad un più ampio insieme di casi. Abbiamo utilizzato processi stocastici come Bernoulli-scheme e catene di Markov per costruire una possibile generalizzazione della struttura proposta nell'articolo, analizzando le condizioni che implicano la validità della regola di Chargaff. I modelli esaminati sono costituiti da semplici processi stazionari o concatenazioni di processi stazionari. Nel primo capitolo vengono introdotte alcune nozioni di biologia. Nel secondo si fa una descrizione critica e prospettica del modello proposto da Sobottka e Hart, introducendo le definizioni formali per il caso generale presentato nel terzo capitolo, dove si sviluppa l'apparato teorico del modello generale.
Resumo:
Abstract Il presente lavoro si propone di tracciare un breve excursus circa il potere del linguaggio partendo dalle origini della retorica, disciplina che, ancora oggi condiziona l’organizzazione del discorso. Il concetto di norma ed infrazione sarà esplorato nei paragrafi che compongono questa tesi tenendo conto dei vari processi storici che hanno in qualche modo influenzato l’evoluzione del linguaggio. Dopo aver delineato una breve presentazione sulle origini della retorica il discorso si sposta in ambito filosofico dedicando ampio spazio alla dialettica aristotelica, per poi incentrarsi su due diversi esempi di uso dell’ars oratoria applicati a scritti di epoca romana. Il secondo, invece, si focalizza su due aspetti in realtà molto simili tra di loro; la censura imposta dalla Chiesa sin dal XVI secolo come mezzo per ostacolare il grado di conoscenza a quell’epoca accessibile al popolo, e la conseguente manipolazione delle masse. Il terzo paragrafo può essere considerato di raccordo in quanto espone la ricerca millenaria, da parte dell’uomo, della perfezione, canone che nel corso dei secoli ha mutato caratteristiche. Infine, l’ultimo paragrafo presenta un’analisi approfondita delle opere di due autori che con i loro ideali innovativi hanno influenzato tutta la letteratura del XX secolo.