502 resultados para Rettificabilità nei Gruppi di Carnot


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le piante spontanee hanno da sempre svolto un ruolo fondamentale nell’alimentazione. Fino alla seconda guerra mondiale, per le limitate possibilità economiche le popolazioni rurali hanno sempre impiegato le specie spontanee come integrazione dell’alimentazione di base, rappresentata da cereali o patate e dalla poca carne disponibile. La raccolta delle piante spontanee ha rappresentato una componente importante della cultura diffusa, di appannaggio, seppure non esclusivo, soprattutto delle donne, che riguardava tanto la conoscenza delle specie e relativi usi, che la stagionalità ed i luoghi più adatti per la raccolta. Successivamente, per le mutate condizioni economiche e la maggiore disponibilità di alimenti diversi sul mercato, l’uso delle piante spontanee è stato progressivamente abbandonato, soprattutto dalle popolazioni urbane. Recentemente, l’interesse per l’uso delle specie spontanee è di nuovo aumentato anche se solamente una piccola parte delle giovani generazioni conosce e consuma queste piante, il cui uso è oggi limitato dalla mancanza di tempo da dedicare alla preparazione dei pasti connessa, in questo caso, ai lunghi tempi di pulizia e mondatura richiesti dopo la raccolta e dalla difficile reperibilità di questi prodotti, il cui prezzo è anche piuttosto elevato. Dato il rinnovato interesse su queste specie, lo scopo di questo lavoro è stata la caratterizzazione analitica di alcune specie erbacee spontanee di uso alimentare nella tradizione tosco-romagnola. I campioni sono stati raccolti nella primavera 2015 nei comuni di Bertinoro (Forlì-Cesena) e Monterchi (Arezzo). Le analisi svolte in laboratorio sono state le seguenti: -determinazione della sostanza secca; -determinazione dei composti fenolici tramite HPLC-DAD; -identificazione dei composti fenolici tramite HPLC/MS; -determinazione spettrofotometrica dei polifenoli totali; -determinazione dell’attività antiossidante tramite metodo DPPH e ABTS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il seguente lavoro di tesi si propone un excursus dell’evoluzione della tecnica che ha permesso l’amplificazione del DNA in laboratorio, spiegandone i principi elementari di base. La scoperta che il DNA è il depositario dell’informazione genica ha aperto la strada a una nuova disciplina: la biologia molecolare, dove molte delle tecniche utilizzate limitano le funzioni naturali degli acidi nucleici. Dalla sua introduzione, la tecnologia PCR ha modificato il modo nel quale l’analisi del DNA viene condotta nei laboratori di ricerca e di diagnostica. Con lo scopo di rilevare direttamente sequenze genomiche specifiche in un campione biologico nasce l’esigenza di avere a disposizione metodologie con un’elevata soglia di sensibilità e specificità. Il primo capitolo di questo elaborato introduce la PCR nella sua prima formulazione. A partire da quantità estremamente ridotte di DNA, questa tecnica di amplificazione in vitro, consente di ottenere rapidamente milioni di molecole identiche della sequenza bersaglio di acido nucleico. A seguire, nel secondo capitolo, verrà trattata un’implementazione della PCR: la real-time PCR. La RT-PCR, introduce nuove opportunità poiché rende possibile la misurazione diretta e la quantificazione della reazione mentre è in atto. Con l’utilizzo di molecole fluorescenti che vengono incorporate nel prodotto in formazione o che si intercalano alla doppia elica, si può monitorare la formazione del prodotto di amplificazione in tempo reale seguendone l’assorbimento con un sistema spettrofotometrico, in un sistema automatizzato che provvede anche alle routine della PCR. Nel terzo e ultimo capitolo si analizza una nuova tecnologia recentemente commercializzata: la PCR in formato digitale. Verranno prese in esame essenzialmente due metodologie, la dPCR su chip e la ddPCR (Droplet Digital Polymerase Chain Reaction).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo del lavoro esposto nella seguente relazione di tesi ha riguardato lo studio e la simulazione di esperimenti di radar bistatico per missioni di esplorazione planeteria. In particolare, il lavoro si è concentrato sull’uso ed il miglioramento di un simulatore software già realizzato da un consorzio di aziende ed enti di ricerca nell’ambito di uno studio dell’Agenzia Spaziale Europea (European Space Agency – ESA) finanziato nel 2008, e svolto fra il 2009 e 2010. L’azienda spagnola GMV ha coordinato lo studio, al quale presero parte anche gruppi di ricerca dell’Università di Roma “Sapienza” e dell’Università di Bologna. Il lavoro svolto si è incentrato sulla determinazione della causa di alcune inconsistenze negli output relativi alla parte del simulatore, progettato in ambiente MATLAB, finalizzato alla stima delle caratteristiche della superficie di Titano, in particolare la costante dielettrica e la rugosità media della superficie, mediante un esperimento con radar bistatico in modalità downlink eseguito dalla sonda Cassini-Huygens in orbita intorno al Titano stesso. Esperimenti con radar bistatico per lo studio di corpi celesti sono presenti nella storia dell’esplorazione spaziale fin dagli anni ’60, anche se ogni volta le apparecchiature utilizzate e le fasi di missione, durante le quali questi esperimenti erano effettuati, non sono state mai appositamente progettate per lo scopo. Da qui la necessità di progettare un simulatore per studiare varie possibili modalità di esperimenti con radar bistatico in diversi tipi di missione. In una prima fase di approccio al simulatore, il lavoro si è incentrato sullo studio della documentazione in allegato al codice così da avere un’idea generale della sua struttura e funzionamento. È seguita poi una fase di studio dettagliato, determinando lo scopo di ogni linea di codice utilizzata, nonché la verifica in letteratura delle formule e dei modelli utilizzati per la determinazione di diversi parametri. In una seconda fase il lavoro ha previsto l’intervento diretto sul codice con una serie di indagini volte a determinarne la coerenza e l’attendibilità dei risultati. Ogni indagine ha previsto una diminuzione delle ipotesi semplificative imposte al modello utilizzato in modo tale da identificare con maggiore sicurezza la parte del codice responsabile dell’inesattezza degli output del simulatore. I risultati ottenuti hanno permesso la correzione di alcune parti del codice e la determinazione della principale fonte di errore sugli output, circoscrivendo l’oggetto di studio per future indagini mirate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi studiamo l'effetto Gibbs. Tale fenomeno si manifesta tramite la presenza di sovra-oscillazioni nei polinomi di Fourier di funzioni che presentano discontinuità di prima specie. La differenza tra il massimo ed il minimo del polinomio di Fourier di tali funzioni, in prossimità di un punto di discontinuità della funzione, è strettamente maggiore del salto della funzione in quel punto, anche per n che tende all'infinito. Per attenuare le sovra-oscillazioni delle somme parziali di Fourier si utilizzano le serie di Fejer e si vede come effettivamente il fenomeno di Gibbs scompaia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’azoto è uno dei prodotti principali dell’industria chimica, utilizzato principalmente per assicurare un sicuro stoccaggio di composti infiammabili. Generatori con sistemi PSA sono spesso più economici della tradizionale distillazione criogenica. I processi PSA utilizzano una colonna a letto fisso, riempita con materiale adsorbente, che adsorbe selettivamente un componente da una miscela gassosa. L’ossigeno diffonde molto più velocemente dell'azoto nei pori di setacci molecolari carboniosi. Oltre ad un ottimo materiale adsorbente, anche il design è fondamentale per la performance di un processo PSA. La fase di adsorbimento è seguita da una fase di desorbimento. Il materiale adsorbente può essere quindi riutilizzato nel ciclo seguente. L’assenza di un simulatore di processo ha reso necessario l’uso di dati sperimentali per sviluppare nuovi processi. Un tale approccio è molto costoso e lungo. Una modellazione e simulazione matematica, che consideri tutti i fenomeni di trasporto, è richiesta per una migliore comprensione dell'adsorbente sia per l'ottimizzazione del processo. La dinamica della colonna richiede la soluzione di insiemi di PDE distribuite nel tempo e nello spazio. Questo lavoro è stato svolto presso l'Università di Scienze Applicate - Münster, Germania. Argomento di questa tesi è la modellazione e simulazione di un impianto PSA per la produzione di azoto con il simulatore di processo Aspen Adsorption con l’obiettivo di permettere in futuro ottimizzazioni di processo affidabili, attendibili ed economiche basate su computazioni numeriche. E' discussa l’ottimizzazione di parametri, dati cinetici, termodinamici e di equilibrio. Il modello è affidabile, rigoroso e risponde adeguatamente a diverse condizioni al contorno. Tuttavia non è ancora pienamente soddisfacente poiché manca una rappresentazione adeguata della cinetica ovvero dei fenomeni di trasporto di materia. La messa a punto del software permetterà in futuro di indagare velocemente nuove possibilità di operazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si concentra sulle traduzioni italiane del classico in lingua inglese The Secret Garden (1911) di Frances Hodgson Burnett, con particolare attenzione all'uso della lingua e all'evoluzione della prassi traduttiva. Nella prima parte di questa tesi ho approfondito temi di natura teorica, quali la sfuggente e complessa definizione di letteratura per l'infanzia, la sua duplice appartenenza al sistema letterario e a quello pedagogico, e le peculiarità della sua traduzione. Inoltre ho presentato un excursus sulla storia di questo genere letterario, con particolare attenzione alla scena italiana e all'opera di propagazione della lingua portata avanti dai libri per ragazzi. Tali basi teoriche sono state necessarie allo scopo di inquadrare il romanzo in una cornice definita e utile in riferimento all'analisi e alla comparazione delle sue traduzioni. Il corpus delle traduzioni scelte consiste nei lavori di: Maria Ettlinger Fano (1921), Angela Restelli Fondelli (1956), F. Ghidoni (1973), Giorgio van Straten (1992) e Beatrice Masini (2013). Di ciascuna opera ho dato una descrizione generale, per poi concentrarmi sugli snodi traduttivi principali: da un lato i problemi di mediazione culturale come l'onomastica, i cibi, le lingue non standard nel testo originale, la religione e così via; dall'altro le soluzioni linguistiche adottate. Al fine di presentare e comparare questi parametri, ho portato a supporto i passaggi delle diverse traduzioni significativi in tal senso. Ho concluso con alcune considerazioni finali sull'evoluzione delle traduzioni italiane di The Secret Garden, viste attraverso l'ottica del rapporto fra adulti (traduttore, editore, educatori, genitori...) e lettore bambino.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’uso di particelle cariche pesanti in radioterapia prende il nome di adroterapia. L’adroterapia permette l’irraggiamento di un volume bersaglio minimizzando il danno ai tessuti sani circostanti rispetto alla radioterapia tradizionale a raggi X. Le proprietà radiobiologiche degli ioni carbonio rappresentano un problema per i modelli radiobiologici a causa della non linearità della loro efficacia biologica. In questa tesi presenteremo gli algoritmi che possono essere usati per calcolare la dose fisica e biologica per un piano di trattamento del CNAO (Centro Nazionale Adroterapia Oncologica). Un caso di particolare interesse è l’eventualità che un piano di trattamento venga interrotto prima del dovuto. A causa della non linearità della sopravvivenza cellulare al variare della quantità di dose ricevuta giornalmente, è necessario studiare gli effetti degli irraggiamenti parziali utilizzando algoritmi che tengano conto delle tante variabili che caratterizzano sia i fasci di ioni che i tessuti irraggiati. Nell'ambito di questa tesi, appositi algoritmi in MATLAB sono stati sviluppati e implementati per confrontare la dose biologica e fisica assorbita nei casi di trattamento parziale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti devono essere in grado di gestire i modelli di traffico generati dalle nuove applicazioni, per questo si sta concentrando un interesse senza precedenti nella storia di Internet parlando di Software Defined Networking (SDN), un nuovo modo di concepire le reti. SDN è un paradigma che permette di dividere il piano di controllo dal piano dati consentendo il controllo della rete da un dispositivo unico centralizzato,il controller. In questa tesi abbiamo voluto esaminare due specifici casi di studio, affinché si dimostri come SDN possa fornire il miglior supporto per risolvere il problema delle architetture tradizionali, e uno strumento utile per progettare SDN. Per primo viene analizzato Procera, utilizzato nelle reti domestiche e nelle reti campus per dimostrare che, grazie ad esso, è possibile ridurre la complessità di un’intera rete. Poi è stato visto AgNos, un’architettura basata su azioni svolte da agenti rappresentando così un ottimo strumento di lavoro sia perché gli agenti sono implementati nei controller di rete e sia perché AgNos ha la peculiarità di fornire all’utente (o al sistema) un livello stabile di concretezza. Inoltre sono stati analizzati due problemi comuni su Internet: 1.la mitigazione degli attacchi Ddos, dove i domini SDN collaborano per filtrare i pacchetti dalla fonte per evitare l’esaurimento delle risorse 2.l’attuazione di un meccanismo di prevenzione per risolvere il problema dell’attacco Dos nella fase iniziale rendendo l’aggressione più facile da gestire. L’ultimo argomento trattato è il sistema Mininet, ottimo strumento di lavoro in quanto permette di emulare topologie di rete in cui fanno parte host, switch e controller, creati utilizzando il software. Rappresenta un ottimo strumento per implementare reti SDN ed è molto utile per lo sviluppo, l'insegnamento e la ricerca grazie alla sua peculiarità di essere open source.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sviluppo di un simulatore della cinetica chimica in una scarica a barriera dielettrica in aria a pressione atmosferica, focalizzando l'attenzione nei processi di creazione e decomposizione dell'ozono. Illustrazione del parco software utilizzato e caratterizzazione del modello fisico reale. Analisi e confronto tra i dati ottenuti tramite calcolatore e i dati ottenuti dalle misure al laboratorio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di questa tesi nasce da un accordo stipulato tra il Laboratorio di Terminologia della Scuola di Lingue e Letterature, Traduzione e Interpretazione di Forlì e l’Organizzazione delle Nazioni Unite per l’Alimentazione e l’Agricoltura (FAO) per la stesura di tesi di laurea in ambito terminologico in collaborazione con il Servizio Programmazione e Documentazione delle Riunioni (CPAM) della FAO. Con il presente lavoro si intende svolgere una ricerca terminologica in inglese e in russo nell'ambito delle risorse genetiche animali e, nello specifico, delle biotecnologie e della salute animale e creare un database terminologico bilingue, inglese-russo, utilizzabile anche nei programmi di traduzione assistita. Nel primo capitolo viene presentata una panoramica della FAO, della sua storia, delle sue missioni e dei suoi obiettivi. Il secondo capitolo tratta la Divisione Produzione e Salute Animale della FAO che si occupa delle risorse genetiche animali e delle biotecnologie e salute animali, dominio e sottodominio del progetto per questa tesi. Il terzo capitolo riguarda le lingue speciali, le loro caratteristiche, il loro rapporto con la lingua comune e la tipologia testuale dei corpora utilizzati per la ricerca terminologica. Nel quarto capitolo si parla di terminologia e dell’attività terminologica illustrando approcci e correnti della terminologia moderna e descrivendo brevemente le peculiarità della terminologia delle biotecnologie. Infine, il quinto capitolo presenta l’intero progetto di ricerca terminologica, dalla fase preparatoria alla fase di revisione, soffermandosi, in particolare, sul procedimento di compilazione e conversione delle schede terminologiche per la creazione del database bilingue. In appendice, a fine tesi, sono allegate le mappe concettuali, le schede terminologiche del file di Microsoft Excel e il database terminologico bilingue inglese-russo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del presente lavoro è analizzare le scelte traduttive adottate nel doppiaggio in italiano della serie televisiva americana “How to get away with murder”, distribuita in Italia con il nome “Le regole del delitto perfetto”. L’analisi verterà sulla resa italiana del lessico giuridico americano. Verranno descritte le caratteristiche principali del sistema di common law americano, con attenzione verso il sistema giudiziario, il sistema precedente giudiziale e il sistema di risoluzione delle controversie. Tale parte del lavoro è volta a dare l’idea, anche solo generale, di come è il sistema giuridico statunitense e dei suoi tratti caratteristici. In seguito si andranno a evidenziare le sostanziali differenze tra i due ordinamenti giuridici, quello statunitense e quello italiano, in modo da definire al meglio ciò che li contraddistingue. Si passerà poi all’analisi della resa italiana del lessico giuridico presente nella serie televisiva. Verrà analizzata, pur nei limiti di un lavoro di tesina triennale, la resa in italiano di alcuni termini giuridici riscontrati in alcuni episodi della serie televisiva, ponendo particolare attenzione al loro significato, al significato del termine usato per tradurli e all’effetto che tale traduzione potrebbe produrre sul pubblico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato è il frutto di un’esperienza di vita personale. L’estate scorsa, infatti, ho svolto uno stage curriculare di un mese a Marsiglia, presso la redazione del quotidiano La Marseillaise. Durante il tirocinio ho avuto la preziosa opportunità di mettermi nei panni di una giornalista e di scrivere un articolo in francese che è stato pubblicato nel quotidiano. Qualche mese fa, mentre riflettevo sul possibile argomento del mio elaborato finale, ho pensato che sarebbe stato bello raccogliere tutti i ricordi e le emozioni di questo mese speciale e metterli per iscritto. Mi sono quindi messa all’opera, cercando di unire al racconto riflessioni ed analisi sugli eventi e le emozioni narrate. Nell’introduzione parlerò di come è nata l’idea di partire per Marsiglia, successivamente, nel primo capitolo, affronterò la questione del genere chiamato “récit de vie”, cioè racconto di vita, e delle sue caratteristiche, per poi tuffarmi completamente nel flusso del racconto nei capitoli 2, 3, 4, 5 e 6.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio si occupa di fluency e analizza alcuni aspetti che la definiscono (pause vuote, pause piene, segnali discorsivi, riformulazioni). Si analizzano frequenza e durata di tali fenomeni, attraverso due corpora di produzioni orali di due gruppi di parlanti della lingua inglese: gli studenti italiani del corso di Mediazione Linguistica Interculturale della Scuola di Lingue, Letterature, Interpretazione e Traduzione di Forlì, Università di Bologna, e partecipanti britannici di un programma radiofonico. Si è ritenuto utile comparare le produzioni orali di studenti della lingua inglese a quelle di oratori pubblici madrelingua. Si è cercato di bilanciare i due corpora in termini di genere. Sono stati utilzzati i software Praat, per identificare la morfologia e la durata delle variabili, e Notetab Light, per l'annotazione dei corpora. I risultati della ricerca mostrano che le differenze maggiori tra i due gruppi risiedono nella durata delle pause vuote e nella frequenza, durata e e varietà di suoni delle pause piene, oltre a sillabe aggiuntive, sillabe allungate e riformulazioni. Le sillabe aggiuntive appaiono tipiche della produzione orale degli studenti italiani, in quanto, per la maggior parte, le parole della lingua italiana terminano con un suono vocalico. E' inoltre emersa una questione di genere. Le parlanti di sesso femminile, in entrambi i corpora, impiegano maggiormente le variabili della fluency prese in esame, rispetto ai parlanti di sesso maschile. Sulla base di questa ricerca e ricerche future si potranno ideare moduli di insegnamento dell'inglese basati sulla fluency come fattore primario di competenza linguistica. Il Capitolo 1 introduce lo studio. Il Capitolo 2 presenta lo stato dell'arte sul tema. Il Capitolo 3 presenta la metodologia dello studio. Il Capitolo 4 è dedicato a illustrare e discutere i risultati della ricerca. Il Capitolo 5 presenta considerazioni conclusive e future prospettive per l'insegnamento dell'inglese e per la ricerca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato è il risultato del progetto di tesi svolto presso l’azienda Lift Truck Equipment L.T.E. di Ostellato (Ferrara) che opera nell’ambito della progettazione e produzione di gruppi di sollevamento ed attrezzature per carrelli elevatori all’interno del gruppo Toyota Material Handling. Il progetto è stato svolto nel periodo da gennaio a marzo 2016 in collaborazione con l’ufficio di Ingegneria di processo di L.T.E. e riguarda l’applicazione del metodo MAGEC (Modi e Analisi dei Guasti e delle Criticità) per l’analisi dei guasti di una linea produttiva dell’azienda, la Rail Line. Nel primo capitolo viene inquadrato il sistema produttivo dell’azienda in aderenza con la filosofia del TPS (Toyota Production System) per chiarire l’ambito in cui è nato il progetto, le motivazioni che hanno portato al suo sviluppo e l’ottica secondo cui è stato svolto. Nel secondo capitolo è fornita una descrizione dell’approccio utilizzato, che consiste in una variante della FMECA, il metodo più utilizzato per le analisi in ambito affidabilistico. Inoltre sono riportate le attività di pianificazione che sono state svolte preliminarmente all’inizio del progetto. Successivamente nel terzo capitolo sono illustrati in modo dettagliato i vari step dell’implementazione del metodo, dalla raccolta dati, effettuata presso l’azienda, all’elaborazione. L’ultimo capitolo è dedicato ai risultati dell’analisi e a una breve descrizione di come tali risultati sono stati utilizzati nelle attività di manutenzione preventiva.