999 resultados para Matèria, Teoria cinètica de la
Resumo:
Aquesta tesi té la intenció de realitzar una contribució metodològica en el camp de la direcció estratègica, per mitjà de tres objectius: la revisió del concepte de risc ex post o realitzat per l'àmbit de la direcció estratègica; la concreció d'aquest concepte en una mesura de risc vàlida; i l'exploració de les possibilitats i l'interès de la descomposició del risc en diferents determinants que puguin explicar-ne la seva naturalesa. El primer objectiu es du a terme prenent com a base el concepte intuïtiu de risc i revisant la literatura en els camps més afins, especialment en la teoria comportamental de la decisió i la direcció estratègica. L'anàlisi porta a formular el risc ex post d'una activitat com el grau en què no s'han assolit els objectius per a aquesta activitat. La concreció d'aquesta definició al camp de la direcció estratègica implica que els objectius han de portar a l'obtenció de l'avantatge competitiu sostenible, el que descobreix l'interès de realitzar la mesura del risc a curt termini, és a dir, estàticament, i a llarg termini, és a dir, dinàmicament, pel que es defineix una mesura de Risc Estàtic i una altra de Risc dinàmic, respectivament. En l'anàlisi apareixen quatre dimensions conceptuals bàsiques a incorporar en les mesures: sign dependence, relativa, longitudinal i path dependence. Addicionalment, la consideració de que els resultats puguin ser cardinals o ordinals justifica que es formulin les dues mesures anteriors per a resultats cardinals i, en segon lloc, per a resultats ordinals. Les mesures de risc que es proposen sintetitzen els resultats ex post obtinguts en una mesura de centralitat relativa dels resultats, el Risc Estàtic, i una mesura de la tendència temporal dels resultats, el Risc Dinàmic. Aquesta proposta contrasta amb el plantejament tradicional dels models esperança-variància. Les mesures desenvolupades s'avaluen amb un sistema de propietats conceptuals i tècniques que s'elaboren expressament en la tesi i que permeten demostrar el seu gra de validesa i el de les mesures existents en la literatura, destacant els problemes de validesa d'aquestes darreres. També es proporciona un exemple teòric il·lustratiu de les mesures proposades que dóna suport a l'avaluació realitzada amb el sistema de propietats. Una contribució destacada d'aquesta tesi és la demostració de que les mesures de risc proposades permeten la descomposició additiva del risc si els resultats o diferencials de resultats es descomponen additivament. Finalment, la tesi inclou una aplicació de les mesures de Risc Estàtic i Dinàmic cardinals, així com de la seva descomposició, a l'anàlisi de la rendibilitat del sector bancari espanyol, en el període 1987-1999. L'aplicació il·lustra la capacitat de les mesures proposades per a analitzar la manifestació de l'avantatge competitiu, la seva evolució i naturalesa econòmica. En les conclusions es formulen possibles línees d'investigació futures.
Resumo:
El processament d'imatges mèdiques és una important àrea de recerca. El desenvolupament de noves tècniques que assisteixin i millorin la interpretació visual de les imatges de manera ràpida i precisa és fonamental en entorns clínics reals. La majoria de contribucions d'aquesta tesi són basades en Teoria de la Informació. Aquesta teoria tracta de la transmissió, l'emmagatzemament i el processament d'informació i és usada en camps tals com física, informàtica, matemàtica, estadística, biologia, gràfics per computador, etc. En aquesta tesi, es presenten nombroses eines basades en la Teoria de la Informació que milloren els mètodes existents en l'àrea del processament d'imatges, en particular en els camps del registre i la segmentació d'imatges. Finalment es presenten dues aplicacions especialitzades per l'assessorament mèdic que han estat desenvolupades en el marc d'aquesta tesi.
Resumo:
La comunitat bentònica dels ecosistemes fluvials processa una gran quantitat de la matèria orgànica que arriba als rius. L'origen de les entrades de material (autòctones o al·lòctones), la seva composició química i la seva quantitat (freqüència de les entrades i concentració assolida en el riu), determinen l'estructura de la comunitat bentònica autotròfica i heterotròfica, les seves relacions tròfiques i les seves interaccions potencials (competència, sinergisme). L'objectiu d'aquesta tesi és posar de manifest la utilització de la matèria orgànica dissolta (MOD) per part dels biofilms bacterians bentònics fluvials i determinar l'eficiència del sistema fluvial en l'ús dels diferents materials que hi circulen. Amb aquesta finalitat s'han portat a terme diversos experiments, tant de camp com de laboratori, per tal de conèixer els efectes de la disponibilitat de la matèria orgànica (quantitat) i la seva qualitat (composició química i biodegradabilitat) i els efectes deguts a l'augment de temperatura de l'aigua del riu.
Resumo:
El projecte ACME va néixer, l’any 1998, amb la finalitat de millorar la docència de les matemàtiques en els estudis d’Enginyeria Industrial i Enginyeries Tècniques de l’Escola Politècnica de la Universitat de Girona, amb la intenció de buscar la manera de que els alumnes s’impliquessin i participessin més activament en aquesta matèria fent ús de la xarxa com a via de comunicació. El projecte ACME, Avaluació Continuada i Millora de l’Ensenyament, és una eina d’e-learning que té com a objectiu fer una avaluació continuada dels alumnes a través d’uns dossiers personalitzats de problemes que el professor proposa. El sistema permet fer el seguiment, per part del professor, del progrés del conjunt de la classe, o d’un alumne individual, en una assignatura concreta. Això fa que l’ACME tingui un gran valor pedagògic. Els objectius d’aquest projecte final de carrera són els següents: • Desenvolupar un sistema de gestió d’usuaris convidats que ens permeti acceptar o denegar l’accés a usuaris que prèviament han fet una petició per poder utilitzar l’ACME. • Crear un sistema que faciliti la tasca d’assignar als usuaris els temes i els problemes més adients pel seu perfil. • Desenvolupar tot un seguit de millores i ampliacions amb la intenció d’integrar el nou mòdul dins les interfícies existents: Ampliar la interfície d’administració en l’apartat d’usuari amb la opció per gestionar els usuaris convidats. Ampliar la interfície d’administració en l’apartat del quadern de problemes amb les opcions adients per tal de gestionar les assignatures dels convidats.
Resumo:
No presente trabalho, estudamos a absorção e amplificação de ondas eletromagnéticas que se propagam em plasmas com densidade e temperatura fracamente inomogêneas, imersos em um campo magnético também inomogêneo, tendo como base a teoria cinética, dentro do contexto da aproximação local. Esse estudo se dá efetivamente a partir da obtenção do tensor dielétrico do plasma, que deve ser empregado na relação de dispersão. Iniciamos com uma revisão dos conceitos básicos sobre plasmas homogêneos e inomogêneos. Os fundamentos da teoria cinética também foram abordados. Apresentamos uma revisão de trabalhos anteriores que enfocam o mesmo tema, embora descrevendo separadamente os dois tipos de inomogeneidades. A partir desses trabalhos, obtivemos um tensor dielétrico geral, que descreve de forma simultânea as inomogeneidades do campo magnético de equilíbrio e da função distribuição de equilíbrio.Tal tensor foi obtido a partir de um sólido desenvolvimento teórico, que garante a correta descrição da troca de energia entre as ondas e as partículas do plasma. Abordamos os aspectos gerais das instabilidades de deriva, direcionando o estudo à faixa de frequência das ondas híbridas inferiores, e às instabilidades LHDI e MTSI (IWI). Utilizamos perfis lineares de inomogeneidades de campo magnêtico ambiente e densidade para modelar a região da magnetosfera conhecida como neutral sheet. Particularizamos o tensor dielétrico para o estudo específico das instabilidades LHDI e MTSI (IWI), para o tipo de perfil citado acima. Apresentamos uma nova rela»c~ao de dispers~ao para plasmas inomogêneos, que incorpora explicitamente as derivadas espaciais do tensor dielétrico do plasma. Usamos o tensor que unifica os tratamentos das inomogeneidades do campo e densidade nessa relação de dispersão, e obtivemos uma descrição unificada das instabilidades LHDI e MTSI (IWI).
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Trent’anni or sono il concetto di ottimalità venne formulato in senso teorico da Lévy, ma solo un decennio dopo Lamping riesce a darne elegante implementazione algoritmica. Realizza un sistema di riduzione su grafi che si scoprirà poi avere interessanti analogie con la logica lineare presentata nello stesso periodo da Girard. Ma l’ottimalità è davvero ottimale? In altre parole, l’implementazione ottimale del λ calcolo realizzata attraverso i grafi di condivisione, è davvero la migliore strategia di riduzione, in termini di complessità? Dopo anni di infondati dubbi e di immeritato oblìo, alla conferenza LICS del 2007, Baillot, Coppola e Dal Lago, danno una prima risposta positiva, seppur parziale. Considerano infatti il caso particolare delle logiche affini elementare e leggera, che possiedono interessanti proprietà a livello di complessità intrinseca e semplificano l’arduo problema. La prima parte di questa tesi presenta, in sintesi, la teoria dell’ottimalità e la sua implementazione condivisa. La seconda parte affronta il tema della sua complessità, a cominciare da una panoramica dei più importanti risultati ad essa legati. La successiva introduzione alle logiche affini, e alle relative caratteristiche, costituisce la necessaria premessa ai due capitoli successivi, che presentano una dimostrazione alternativa ed originale degli ultimi risultati basati appunto su EAL e LAL. Nel primo dei due capitoli viene definito un sistema intermedio fra le reti di prova delle logiche e la riduzione dei grafi, nel secondo sono dimostrate correttezza ed ottimalità dell’implementazione condivisa per mezzo di una simulazione. Lungo la trattazione sono offerti alcuni spunti di riflessione sulla dinamica interna della β riduzione riduzione e sui suoi legami con le reti di prova della logica lineare.
Resumo:
Prendendo in esame diverse angolature d’analisi è indagata la situazione attuale della produzione tradizionale della ceramica salentina. La ricerca comprende la descrizione della situazione culturale attuale, l’analisi qualitativa e quantitativa dei dati raccolti sul campo e la costruzione di un quadro generale multidimensionale della rappresentazione di un’area culturale. Il primo capitolo della tesi tratta il problema teorico dei linguaggi specialistici e delle peculiarità a essi legati. La dottoranda fornisce un quadro completo ed esaustivo della bibliografia sia italiana che anglosassone sull’argomento affrontato. Questo capitolo fa da introduzione al problema della comunicazione specialistica nell’ambito della quale si svolgono le interviste. Il secondo capitolo presenta la metodologia utilizzata durante la ricerca svolta sul campo. La metodologia della ricerca sul campo include i metodi etnografici di osservazione partecipante e linguistico antropologici di interviste non strutturate. Il terzo capitolo della tesi è dedicato alla descrizione etnografica del processo produttivo. Questo capitolo ha un valore rilevante per l’intera ricerca poiché oltre ai termini italiani sono riportati tutti i termini tradizionali e descritti dettagliatamente i momenti della produzione. Va dimostrata una profonda conoscenza della lavorazione della ceramica nel Salento non solo nel suo stato attuale ma anche nel passato. Come parte conclusiva di questo capitolo è proposta una riflessione di carattere filosofico e antropologico sul ruolo dell’artigiano come Creatore, proponendo paragoni con la figura del Demiurgo platonico descritto nel “Timeo” e l’analisi del cambiamento dello statuto di oggetto da manufatto a oggetto industriale basandosi sul lavoro di Baudrillard. Il quarto capitolo è strutturato in modo diverso rispetto agli altri perché rappresenta la parte centrale della tesi e propone quattro diversi tipi di analisi linguistica possibile. La prima analisi riguarda l’ideologia linguistica e la sua espressione nel parlato inosservato. E’ fornita la prospettiva teorica sulla problematica di ideologia linguistica e dimostrata la conoscenza dei testi sia di natura sociologica (Althusser, Bourdieu, Gouldner, Hobsbawm, Thompson, Boas) che di natura linguistica (Schieffelin Bambi B., Woolard Kathryn A., Kroskrity Paul V., eds. 1998 Language ideologies : practice and theory. New York Oxford, Oxford University press). Golovko analizza i marcatori spazio-temporali utilizzati dagli artigiani per costruire le tassonomie del pronome “noi” e la contrapposizione “noi” – altri. Questa analisi consente di distinguere i diversi livelli d’inclusione ed esclusione del gruppo. Un altro livello di analisi include la valutazione degli usi del passato e del presente nel parlato per costruire le dimensioni temporali del discorso. L’analisi dei marcatori spazio-temporali consente di proporre una teoria sulla “distanza” tra i parlanti che influisce la scelta del codice oppure la sua modifica (passaggio dal dialetto all’italiano, la scelta della varietà a seconda dell’interlocutore). La parte dedicata all’ideologia si conclude con un’analisi profonda (sia quantitativa che qualitativa) dei verbi di moto che sono stati raggruppati in una categoria denominata dalla Golovko “verbi di fase” che rappresentano usi non standard dei verbi di moto per esprimere il passaggio da una fase all’altra. Il termine “fasale” prende spunto non dalla letteratura linguistica ma dal libro di Van Gennep “Les rites de passage” che discute dell’importanza dei riti di passaggio nella cultura africana e nella ricerca etnografica e folkloristica. È stato rilevato dalla dottoranda che i passaggi da una fase produttiva all’altra hanno un valore particolare anche nella produzione della ceramica e soprattutto negli usi particolari dei verbi di moto. Analizzati in profondità, questi usi particolari rispecchiano non solo fattori linguistici ma anche la visione e la percezione di queste fasi delicate in modo particolare dagli artigiani stessi. Sono stati descritti i procedimenti linguistici come personalizzazione e alienazione dell’oggetto. Inoltre la dottoranda ha dimostrato la conoscenza della letteratura antropologica non solo inerente la zona da lei studiata ma anche di altre come, ad esempio, dell’Africa Sub Sahariana. Nella parte successiva del quarto capitolo viene proposta un’altra chiave di lettura delle problematiche linguistiche: l’analisi del lessico utilizzato dagli artigiani per poter classificare i gruppi identitari presenti nella comunità studiata. E’ proposta l’analisi dei rapporti all’interno dei gruppi professionali che sono generalmente classificati come solidarietà e distinzione. La terminologia ha origine sociologica, infatti viene proposto un quadro teorico degli studi sulla solidarietà (Durkheim, Appandurai, Harré, Zoll) e l’adattamento del termine in questo senso coniato da Bourdieu “la distiction”. L’identità linguistica è affrontata sia dal punto di vista linguistico che dal punto di vista sociologico. Per svolgere l’analisi sulle identità assunte dagli artigiani e poter ricondurre la scelta volontaria e a volte non conscia di uno stile (consistente di un insieme di termini) inteso come espressione d’identità assunta dagli artigiani, la dottoranda riflette sul termine “stile” nella sua accezione sociolinguistica, com’è usuale negli studi anglosasoni di ultima generazione (Coupland, Eckert, Irvine e altri). La dottoranda fornisce una classificazione delle identità e ne spiega la motivazione basandosi sui dati empirici raccolti. La terza parte del quarto capitolo è dedicata all’analisi del linguaggio specialistico degli artigiani e alla descrizione dei tratti solitamente assegnati a questo tipo di linguaggio (monoreferenziaità, trasparenza, sinteticità e altri). La dottoranda svolge un’analisi di carattere semantico dei sinonimi presenti nel linguaggio degli artigiani, analizza il rapporto con la lingua comune, riporta l’uso delle metafore e casi di produttività linguistica. L’ultima parte del quarto capitolo consiste nell’analisi dei tratti non standard nel linguaggio degli artigiani classificati considerando il livello di variazione (lessico, morfologia e morfosintassi e sintassi) e spiegati con gli esempi tratti dalle interviste. L’autrice riflette sui cambiamenti avvenuti nella lingua parlata italiana e nella sua varietà regionale basandosi sui lavori “classici” della linguistica italiana (Berruto, Sobrero, Stehl, Bruni, D’Achille, Berretta, Tempesta e altri) studiandone attentamente i processi evidenziati nella sua descrizione. Lo scopo e l’apice della tesi consiste nell’analisi del repertorio linguistico degli artigiani e la discussione delle dinamiche in corso (livellamento del dialetto, convergenza e divergenza del dialetto, italianizzazione e regionalizzazione dell’italiano). La dottoranda propone un suo schema di rapporti tra italiano e dialetto motivando pienamente la sua teoria. A corollario la tesi è composta anche da un glossario dei termini tecnici e un album fotografico che aumentano l’interesse del lavoro dandogli un valore culturale.
Resumo:
Lo scopo di questa tesi è di esporre il cuore centrale della teoria di Galois, la risolubilità per radicali delle equazioni polinomiali nel caso in cui il campo di partenza abbia caratteristica 0. L’operato è articolato in tre capitoli. Nel primo capitolo vengono introdotte le nozioni fondamentali della teoria dei campi e della teoria di Galois. Nel secondo capitolo, si sviluppa il problema della risolubilità per radicali. Vengono prima introdotti i gruppi risolubili e alcune loro particolarità. Poi vengono introdotte le nozioni di estensioni radicali e risolubili e relativi teoremi. Nel paragrafo 2.3 viene dimostrato il teorema principale della teoria, il teorema di Galois, che identifica la risolubilità del gruppo di Galois con la risolubilità dell’estensione. Infine l’ultimo paragrafo si occupa della risolubilità dei polinomi, sfruttando il loro campo di spezzamento. Nel terzo ed ultimo capitolo, viene discussa la risolubilita` dell’equazione polinomiale generale di grado n. Vengono inoltre riportati diversi esempi ed infine viene presentato un esempio di estensione di Galois di grado primo p non risolubile in caratteristica p.
Resumo:
In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.
Resumo:
Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.
Resumo:
L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.
Resumo:
La teoria dell'inflazione risolve alcuni problemi fondamentali posti dalla teoria standard dell'origine dell'universo, in particolare chiarisce perché l'universo è piatto e omogeneo quando secondo la cosmologia standard non lo dovrebbe essere (o meglio: lo potrebbe essere solo con probabilità molto bassa). Inoltre la teoria dell'inflazione spiega l'origine delle anisotropie della radiazione cosmica di fondo e in tal modo l'inflazione è responsabile anche dell'origine della struttura a grande scala dell'universo. La teoria inflazionaria presenta la possibilità di una conferma sperimentale. Alcune sue predizioni sono già state verificate e una forte prova era sembrata venire dall'esperimento BICEP2, ma per ora (novembre 2014) non c'è stata una conferma. Nello specifico, l'esperimento BICEP2 aveva dichiarato a marzo 2014 di aver rilevato nella radiazione cosmica di fondo il segnale di onde gravitazionali che potevano essere state provocate soltanto dall'inflazione. La presente tesi descrive gli aspetti classici (non quantistici) della teoria dell'inflazione, riporta i risultati relativi alla trattazione quantistica delle perturbazioni della radiazione cosmica di fondo e illustra la questione delle verifiche sperimentali della teoria dell'inflazione, dedicando particolare rilievo al recente esperimento BICEP2.
Resumo:
Estudio de la cinética de la crioconservación de tejidos vegetales
Resumo:
Recentemente sono stati valutati come fisicamente consistenti diversi modelli non-hermitiani sia in meccanica quantistica che in teoria dei campi. La classe dei modelli pseudo-hermitiani, infatti, si adatta ad essere usata per la descrizione di sistemi fisici dal momento che, attraverso un opportuno operatore metrico, risulta possibile ristabilire una struttura hermitiana ed unitaria. I sistemi PT-simmetrici, poi, sono una categoria particolarmente studiata in letteratura. Gli esempi riportati sembrano suggerire che anche le cosiddette teorie conformi non-unitarie appartengano alla categoria dei modelli PT-simmetrici, e possano pertanto adattarsi alla descrizione di fenomeni fisici. In particolare, si tenta qui la costruzione di determinate lagrangiane Ginzburg-Landau per alcuni modelli minimali non-unitari, sulla base delle identificazioni esistenti per quanto riguarda i modelli minimali unitari. Infine, si suggerisce di estendere il dominio del noto teorema c alla classe delle teorie di campo PT-simmetriche, e si propongono alcune linee per una possibile dimostrazione dell'ipotizzato teorema c_{eff}.