998 resultados para Su-Schrieffer-Heeger models


Relevância:

30.00% 30.00%

Publicador:

Resumo:

We review the status of integrable models from the point of view of their dynamics and integrability conditions. A few integrable models are discussed in detail. We comment on the use it is made of them in string theory. We also discuss the SO(6) symmetric Hamiltonian with SO(6) boundary. This work is especially prepared for the 70th anniversaries of Andr, Swieca (in memoriam) and Roland Koberle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Persistent organic pollutants (POPs) is a group of chemicals that are toxic, undergo long-range transport and accumulate in biota. Due to their persistency the distribution and recirculation in the environment often continues for a long period of time. Thereby they appear virtually everywhere within the biosphere, and poses a toxic stress to living organisms. In this thesis, attempts are made to contribute to the understanding of factors that influence the distribution of POPs with focus on processes in the marine environment. The bioavailability and the spatial distribution are central topics for the environmental risk management of POPs. In order to study these topics, various field studies were undertaken. To determine the bioavailable fraction of polychlorinated dibenzo-p-dioxins and dibenzofurans (PCDD/Fs), polychlorinated naphthalenes (PCNs), and polychlorinated biphenyls (PCBs) the aqueous dissolved phase were sampled and analysed. In the same samples, we also measured how much of these POPs were associated with suspended particles. Different models, which predicted the phase distribution of these POPs, were then evaluated. It was found that important water characteristics, which influenced the solid-water phase distribution of POPs, were particulate organic matter (POM), particulate soot (PSC), and dissolved organic matter (DOM). The bioavailable dissolved POP-phase in the water was lower when these sorbing phases were present. Furthermore, sediments were sampled and the spatial distribution of the POPs was examined. The results showed that the concentration of PCDD/Fs, and PCNs were better described using PSC- than using POM-content of the sediment. In parallel with these field studies, we synthesized knowledge of the processes affecting the distribution of POPs in a multimedia mass balance model. This model predicted concentrations of PCDD/Fs throughout our study area, the Grenlandsfjords in Norway, within factors of ten. This makes the model capable to validate the effect of suitable remedial actions in order to decrease the exposure of these POPs to biota in the Grenlandsfjords which was the aim of the project. Also, to evaluate the influence of eutrophication on the marine occurrence PCB data from the US Musselwatch and Benthic Surveillance Programs are examined in this thesis. The dry weight based concentrations of PCB in bivalves were found to correlate positively to the organic matter content of nearby sediments, and organic matter based concentrations of PCB in sediments were negatively correlated to the organic matter content of the sediment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neutron stars are some of the most fascinating objects in Nature. Essentially all aspects of physics seems to be represented inside them. Their cores are likely to contain deconfined quarks, hyperons and other exotic phases of matter in which the strong interaction is the dominant force. The inner region of their solid crust is penetrated by superfluid neutrons and their magnetic fields may reach well over 1012 Gauss. Moreover, their extreme mean densities, well above the densities of nuclei, and their rapid rotation rates makes them truly relativistic both in the special as well as in the general sense. This thesis deals with a small subset of these phenomena. In particular the exciting possibility of trapping of gravita-tional waves is examined from a theoretical point of view. It is shown that the standard condition R < 3M is not essential to the trapping mechanism. This point is illustrated using the elegant tool provided by the optical geometry. It is also shown that a realistic equation of state proposed in the literature allows stable neutron star models with closed circular null orbits, something which is closely related to trapped gravitational waves. Furthermore, the general relativistic theory of elasticity is reviewed and applied to stellar models. Both static equilibrium as well as radially oscillating configurations with elasticsources are examined. Finally, Killing tensors are considered and their applicability to modeling of stars is discussed

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The thesis studies the economic and financial conditions of Italian households, by using microeconomic data of the Survey on Household Income and Wealth (SHIW) over the period 1998-2006. It develops along two lines of enquiry. First it studies the determinants of households holdings of assets and liabilities and estimates their correlation degree. After a review of the literature, it estimates two non-linear multivariate models on the interactions between assets and liabilities with repeated cross-sections. Second, it analyses households financial difficulties. It defines a quantitative measure of financial distress and tests, by means of non-linear dynamic probit models, whether the probability of experiencing financial difficulties is persistent over time. Chapter 1 provides a critical review of the theoretical and empirical literature on the estimation of assets and liabilities holdings, on their interactions and on households net wealth. The review stresses the fact that a large part of the literature explain households debt holdings as a function, among others, of net wealth, an assumption that runs into possible endogeneity problems. Chapter 2 defines two non-linear multivariate models to study the interactions between assets and liabilities held by Italian households. Estimation refers to a pooling of cross-sections of SHIW. The first model is a bivariate tobit that estimates factors affecting assets and liabilities and their degree of correlation with results coherent with theoretical expectations. To tackle the presence of non normality and heteroskedasticity in the error term, generating non consistent tobit estimators, semi-parametric estimates are provided that confirm the results of the tobit model. The second model is a quadrivariate probit on three different assets (safe, risky and real) and total liabilities; the results show the expected patterns of interdependence suggested by theoretical considerations. Chapter 3 reviews the methodologies for estimating non-linear dynamic panel data models, drawing attention to the problems to be dealt with to obtain consistent estimators. Specific attention is given to the initial condition problem raised by the inclusion of the lagged dependent variable in the set of explanatory variables. The advantage of using dynamic panel data models lies in the fact that they allow to simultaneously account for true state dependence, via the lagged variable, and unobserved heterogeneity via individual effects specification. Chapter 4 applies the models reviewed in Chapter 3 to analyse financial difficulties of Italian households, by using information on net wealth as provided in the panel component of the SHIW. The aim is to test whether households persistently experience financial difficulties over time. A thorough discussion is provided of the alternative approaches proposed by the literature (subjective/qualitative indicators versus quantitative indexes) to identify households in financial distress. Households in financial difficulties are identified as those holding amounts of net wealth lower than the value corresponding to the first quartile of net wealth distribution. Estimation is conducted via four different methods: the pooled probit model, the random effects probit model with exogenous initial conditions, the Heckman model and the recently developed Wooldridge model. Results obtained from all estimators accept the null hypothesis of true state dependence and show that, according with the literature, less sophisticated models, namely the pooled and exogenous models, over-estimate such persistence.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The "sustainability" concept relates to the prolonging of human economic systems with as little detrimental impact on ecological systems as possible. Construction that exhibits good environmental stewardship and practices that conserve resources in a manner that allow growth and development to be sustained for the long-term without degrading the environment are indispensable in a developed society. Past, current and future advancements in asphalt as an environmentally sustainable paving material are especially important because the quantities of asphalt used annually in Europe as well as in the U.S. are large. The asphalt industry is still developing technological improvements that will reduce the environmental impact without affecting the final mechanical performance. Warm mix asphalt (WMA) is a type of asphalt mix requiring lower production temperatures compared to hot mix asphalt (HMA), while aiming to maintain the desired post construction properties of traditional HMA. Lowering the production temperature reduce the fuel usage and the production of emissions therefore and that improve conditions for workers and supports the sustainable development. Even the crumb-rubber modifier (CRM), with shredded automobile tires and used in the United States since the mid 1980s, has proven to be an environmentally friendly alternative to conventional asphalt pavement. Furthermore, the use of waste tires is not only relevant in an environmental aspect but also for the engineering properties of asphalt [Pennisi E., 1992]. This research project is aimed to demonstrate the dual value of these Asphalt Mixes in regards to the environmental and mechanical performance and to suggest a low environmental impact design procedure. In fact, the use of eco-friendly materials is the first phase towards an eco-compatible design but it cannot be the only step. The eco-compatible approach should be extended also to the design method and material characterization because only with these phases is it possible to exploit the maximum potential properties of the used materials. Appropriate asphalt concrete characterization is essential and vital for realistic performance prediction of asphalt concrete pavements. Volumetric (Mix design) and mechanical (Permanent deformation and Fatigue performance) properties are important factors to consider. Moreover, an advanced and efficient design method is necessary in order to correctly use the material. A design method such as a Mechanistic-Empirical approach, consisting of a structural model capable of predicting the state of stresses and strains within the pavement structure under the different traffic and environmental conditions, was the application of choice. In particular this study focus on the CalME and its Incremental-Recursive (I-R) procedure, based on damage models for fatigue and permanent shear strain related to the surface cracking and to the rutting respectively. It works in increments of time and, using the output from one increment, recursively, as input to the next increment, predicts the pavement conditions in terms of layer moduli, fatigue cracking, rutting and roughness. This software procedure was adopted in order to verify the mechanical properties of the study mixes and the reciprocal relationship between surface layer and pavement structure in terms of fatigue and permanent deformation with defined traffic and environmental conditions. The asphalt mixes studied were used in a pavement structure as surface layer of 60 mm thickness. The performance of the pavement was compared to the performance of the same pavement structure where different kinds of asphalt concrete were used as surface layer. In comparison to a conventional asphalt concrete, three eco-friendly materials, two warm mix asphalt and a rubberized asphalt concrete, were analyzed. The First Two Chapters summarize the necessary steps aimed to satisfy the sustainable pavement design procedure. In Chapter I the problem of asphalt pavement eco-compatible design was introduced. The low environmental impact materials such as the Warm Mix Asphalt and the Rubberized Asphalt Concrete were described in detail. In addition the value of a rational asphalt pavement design method was discussed. Chapter II underlines the importance of a deep laboratory characterization based on appropriate materials selection and performance evaluation. In Chapter III, CalME is introduced trough a specific explanation of the different equipped design approaches and specifically explaining the I-R procedure. In Chapter IV, the experimental program is presented with a explanation of test laboratory devices adopted. The Fatigue and Rutting performances of the study mixes are shown respectively in Chapter V and VI. Through these laboratory test data the CalME I-R models parameters for Master Curve, fatigue damage and permanent shear strain were evaluated. Lastly, in Chapter VII, the results of the asphalt pavement structures simulations with different surface layers were reported. For each pavement structure, the total surface cracking, the total rutting, the fatigue damage and the rutting depth in each bound layer were analyzed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella tesi sono trattate due famiglie di modelli meccanico statistici su vari grafi: i modelli di spin ferromagnetici (o di Ising) e i modelli di monomero-dimero. Il primo capitolo è dedicato principalmente allo studio del lavoro di Dembo e Montanari, in cui viene risolto il modello di Ising su grafi aleatori. Nel secondo capitolo vengono studiati i modelli di monomero-dimero, a partire dal lavoro di Heilemann e Lieb,con l'intento di dare contributi nuovi alla teoria. I principali temi trattati sono disuguaglianze di correlazione, soluzioni esatte su alcuni grafi ad albero e sul grafo completo, la concentrazione dell'energia libera intorno al proprio valor medio sul grafo aleatorio diluito di Erdös-Rényi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro, senza alcuna pretesa di esaustività, ha inteso ricostruire il quadro normativo relativo alla disciplina dell’autotrasporto merci su strada. In primis, ci si è soffermata sugli aspetti generali del settore, approfondendo, in seguito, la normativa europea e nazionale. Tale excursus, ha permesso di riscontrare i molteplici interventi legislativi susseguitisi in ambito di regolamentazione dell’autotrasporto merci su strada, evidenziando i passaggi più significativi in tema di riordino della disciplina. Si è pertanto proceduto all’analisi del primo importante intervento legislativo del settore, intercorso ad opera della Legge n. 298/1974, disciplinante gli aspetti di natura pubblicistica del settore. Tale provvedimento, ha un apposito Albo Nazionale per gli autotrasportatori di merci per conto terzi, identificando i requisiti necessari per l’accesso al mercato e l’esercizio della professione di autotrasportatore di cose in conto terzi. Importati novità vengono introdotte con il D.lgs. 286/2005, provvedimento che ha portato al raggiungimento del processo di liberalizzazione del mercato. Successivamente si è proceduto a riscontrare l’intensa produzione normativa, posta a regolamentazione del settore, che nella ricerca di un equilibrio tra esigenze di mercato e corretto esercizio dell’attività di autotrasporto, si propone di addivenire al raggiungimento degli obiettivi comunitari di armonizzazione della disciplina e qualificazione del settore dell’autotrasporto. Significativi, in tal senso, i recenti interventi di riforma posti in essere con il “Pacchetto comunitario del 21 ottobre 2009” ( Regolamento (CE) 1071/2009 e Regolamento (CE) 1072/2009. Da ultimo, al fine di verificare le eventuali debolezze del sistema normativo vigente, in relazione al raggiungimento degli obiettivi comunitari suesposti, si è ritenuto di indirizzare la ricerca verso un’attenta valutazione dell’efficienza dei modelli di trasporto merci su strada, verificandone l’impatto in termini di maggior incidenza sui costi esterni derivanti dal trasporto. A tal proposito, particolare attenzione è stata rivolta anche alla disciplina del trasporto in conto proprio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A control-oriented model of a Dual Clutch Transmission was developed for real-time Hardware In the Loop (HIL) applications, to support model-based development of the DCT controller. The model is an innovative attempt to reproduce the fast dynamics of the actuation system while maintaining a step size large enough for real-time applications. The model comprehends a detailed physical description of hydraulic circuit, clutches, synchronizers and gears, and simplified vehicle and internal combustion engine sub-models. As the oil circulating in the system has a large bulk modulus, the pressure dynamics are very fast, possibly causing instability in a real-time simulation; the same challenge involves the servo valves dynamics, due to the very small masses of the moving elements. Therefore, the hydraulic circuit model has been modified and simplified without losing physical validity, in order to adapt it to the real-time simulation requirements. The results of offline simulations have been compared to on-board measurements to verify the validity of the developed model, that was then implemented in a HIL system and connected to the TCU (Transmission Control Unit). Several tests have been performed: electrical failure tests on sensors and actuators, hydraulic and mechanical failure tests on hydraulic valves, clutches and synchronizers, and application tests comprehending all the main features of the control performed by the TCU. Being based on physical laws, in every condition the model simulates a plausible reaction of the system. The first intensive use of the HIL application led to the validation of the new safety strategies implemented inside the TCU software. A test automation procedure has been developed to permit the execution of a pattern of tests without the interaction of the user; fully repeatable tests can be performed for non-regression verification, allowing the testing of new software releases in fully automatic mode.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduzione. Le cellule mesenchimali derivate dal tessuto adiposo (hASC) rappresentano un importante strumento per la terapia cellulare, in quanto derivano da un tessuto adulto abbondante e facilmente reperibile. Con il dispositivo medico Lipogems l’isolamento di tali cellule è eseguito esclusivamente mediante sollecitazioni meccaniche. Il prodotto ottenuto è quindi minimamente manipolato e subito utilizzabile. Ad oggi, il condizionamento pro-differenziativo delle staminali è per lo più attuato mediante molecole di sintesi. Tuttavia, altri fattori possono modulare la fisiologia cellulare, come gli stimoli fisici e molecole naturali. Onde elettromagnetiche hanno indotto in modelli cellulari staminali l’espressione di alcuni marcatori di differenziamento e, in cellule adulte, una riprogrammazione, mentre estratti embrionali di Zebrafish sono risultati antiproliferativi sia in vitro che in vivo. Metodi. La ricerca di nuove strategie differenziative sia di natura fisica che molecolare, nel particolare onde acustiche ed estratti embrionali di Zebrafish, è stata condotta utilizzando come modello cellulare le hASC isolate con Lipogems. Onde acustiche sono state somministrate mediante l’utilizzo di due apparati di trasduzione, un generatore di onde meccaniche e il Cell Exciter . I trattamenti con gli estratti embrionali sono stati effettuati utilizzando diverse concentrazioni e diversi tempi sperimentali. Gli effetti sull’espressione dei marcatori di staminalità e differenziamento relativi ai trattamenti sono stati saggiati in RT-PCR quantitativa relativa e/o in qPCR. Per i trattamenti di tipo molecolare è stata valutata anche la proliferazione. Risultati e conclusioni. La meta-analisi dei dati delle colture di controllo mostra la stabilità d’espressione genica del modello. I trattamenti con i suoni inducono variazioni dell’espressione genica, suggerendo un ruolo regolatorio di tali stimoli, in particolare del processo di commitment cardiovascolare. Due degli estratti embrionali di Zebrafish testati inibiscono la proliferazione alle 72 ore dalla somministrazione. L’analisi d’espressione associata ai trattamenti antiproliferativi suggerisce che tale effetto abbia basi molecolari simili ai processi di differenziamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto di ricerca è finalizzato allo sviluppo di una metodologia innovativa di supporto decisionale nel processo di selezione tra alternative progettuali, basata su indicatori di prestazione. In particolare il lavoro si è focalizzato sulla definizione d’indicatori atti a supportare la decisione negli interventi di sbottigliamento di un impianto di processo. Sono stati sviluppati due indicatori, “bottleneck indicators”, che permettono di valutare la reale necessità dello sbottigliamento, individuando le cause che impediscono la produzione e lo sfruttamento delle apparecchiature. Questi sono stati validati attraverso l’applicazione all’analisi di un intervento su un impianto esistente e verificando che lo sfruttamento delle apparecchiature fosse correttamente individuato. Definita la necessità dell’intervento di sbottigliamento, è stato affrontato il problema della selezione tra alternative di processo possibili per realizzarlo. È stato applicato alla scelta un metodo basato su indicatori di sostenibilità che consente di confrontare le alternative considerando non solo il ritorno economico degli investimenti ma anche gli impatti su ambiente e sicurezza, e che è stato ulteriormente sviluppato in questa tesi. Sono stati definiti due indicatori, “area hazard indicators”, relativi alle emissioni fuggitive, per integrare questi aspetti nell’analisi della sostenibilità delle alternative. Per migliorare l’accuratezza nella quantificazione degli impatti è stato sviluppato un nuovo modello previsionale atto alla stima delle emissioni fuggitive di un impianto, basato unicamente sui dati disponibili in fase progettuale, che tiene conto delle tipologie di sorgenti emettitrici, dei loro meccanismi di perdita e della manutenzione. Validato mediante il confronto con dati sperimentali di un impianto produttivo, si è dimostrato che tale metodo è indispensabile per un corretto confronto delle alternative poiché i modelli esistenti sovrastimano eccessivamente le emissioni reali. Infine applicando gli indicatori ad un impianto esistente si è dimostrato che sono fondamentali per semplificare il processo decisionale, fornendo chiare e precise indicazioni impiegando un numero limitato di informazioni per ricavarle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno dei più importanti campi di ricerca che coinvolge gli astrofisici è la comprensione della Struttura a Grande Scala dell'universo. I principi della Formazione delle Strutture sono ormai ben saldi, e costituiscono la base del cosiddetto "Modello Cosmologico Standard". Fino agli inizi degli anni 2000, la teoria che spiegava con successo le proprietà statistiche dell'universo era la cosiddetta "Teoria Perturbativa Standard". Attraverso simulazioni numeriche e osservazioni di qualità migliore, si è evidenziato il limite di quest'ultima teoria nel descrivere il comportamento dello spettro di potenza su scale oltre il regime lineare. Ciò spinse i teorici a trovare un nuovo approccio perturbativo, in grado di estendere la validità dei risultati analitici. In questa Tesi si discutono le teorie "Renormalized Perturbation Theory"e"Multipoint Propagator". Queste nuove teorie perturbative sono la base teorica del codice BisTeCca, un codice numerico originale che permette il calcolo dello spettro di potenza a 2 loop e del bispettro a 1 loop in ordine perturbativo. Come esempio applicativo, abbiamo utilizzato BisTeCca per l'analisi dei bispettri in modelli di universo oltre la cosmologia standard LambdaCDM, introducendo una componente di neutrini massicci. Si mostrano infine gli effetti su spettro di potenza e bispettro, ottenuti col nostro codice BisTeCca, e si confrontano modelli di universo con diverse masse di neutrini.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La materia ordinaria copre soli pochi punti percentuali della massa-energia totale dell'Universo, che è invece largamente dominata da componenti “oscure”. Il modello standard usato per descriverle è il modello LambdaCDM. Nonostante esso sembri consistente con la maggior parte dei dati attualmente disponibili, presenta alcuni problemi fondamentali che ad oggi restano irrisolti, lasciando spazio per lo studio di modelli cosmologici alternativi. Questa Tesi mira a studiare un modello proposto recentemente, chiamato “Multi-coupled Dark Energy” (McDE), che presenta interazioni modificate rispetto al modello LambdaCDM. In particolare, la Materia Oscura è composta da due diversi tipi di particelle con accoppiamento opposto rispetto ad un campo scalare responsabile dell'Energia Oscura. L'evoluzione del background e delle perturbazioni lineari risultano essere indistinguibili da quelle del modello LambdaCDM. In questa Tesi viene presentata per la prima volta una serie di simulazioni numeriche “zoomed”. Esse presentano diverse regioni con risoluzione differente, centrate su un singolo ammasso di interesse, che permettono di studiare in dettaglio una singola struttura senza aumentare eccessivamente il tempo di calcolo necessario. Un codice chiamato ZInCo, da me appositamente sviluppato per questa Tesi, viene anch'esso presentato per la prima volta. Il codice produce condizioni iniziali adatte a simulazioni cosmologiche, con differenti regioni di risoluzione, indipendenti dal modello cosmologico scelto e che preservano tutte le caratteristiche dello spettro di potenza imposto su di esse. Il codice ZInCo è stato usato per produrre condizioni iniziali per una serie di simulazioni numeriche del modello McDE, le quali per la prima volta mostrano, grazie all'alta risoluzione raggiunta, che l'effetto di segregazione degli ammassi avviene significativamente prima di quanto stimato in precedenza. Inoltre, i profili radiale di densità ottenuti mostrano un appiattimento centrale nelle fasi iniziali della segregazione. Quest'ultimo effetto potrebbe aiutare a risolvere il problema “cusp-core” del modello LambdaCDM e porre limiti ai valori dell'accoppiamento possibili.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In una formulazione rigorosa della teoria quantistica, la definizione della varietà Riemanniana spaziale su cui il sistema è vincolato gioca un ruolo fondamentale. La presenza di un bordo sottolinea l'aspetto quantistico del sistema: l'imposizione di condizioni al contorno determina la discretizzazione degli autovalori del Laplaciano, come accade con condizioni note quali quelle periodiche, di Neumann o di Dirichlet. Tuttavia, non sono le uniche possibili. Qualsiasi condizione al bordo che garantisca l'autoaggiunzione dell' operatore Hamiltoniano è ammissibile. Tutte le possibili boundary conditions possono essere catalogate a partire dalla richiesta di conservazione del flusso al bordo della varietà. Alcune possibili condizioni al contorno, permettono l'esistenza di stati legati al bordo, cioè autostati dell' Hamiltoniana con autovalori negativi, detti edge states. Lo scopo di questa tesi è quello di investigare gli effetti di bordo in sistemi unidimensionali implementati su un reticolo discreto, nella prospettiva di capire come simulare proprietà di edge in un reticolo ottico. Il primo caso considerato è un sistema di elettroni liberi. La presenza di edge states è completamente determinata dai parametri di bordo del Laplaciano discreto. Al massimo due edge states emergono, e possono essere legati all' estremità destra o sinistra della catena a seconda delle condizioni al contorno. Anche il modo in cui decadono dal bordo al bulk e completamente determinato dalla scelta delle condizioni. Ammettendo un' interazione quadratica tra siti primi vicini, un secondo tipo di stati emerge in relazione sia alle condizioni al contorno che ai parametri del bulk. Questi stati sono chiamati zero modes, in quanto esiste la possibilità che siano degeneri con lo stato fondamentale. Per implementare le più generali condizioni al contorno, specialmente nel caso interagente, è necessario utilizzare un metodo generale per la diagonalizzazione, che estende la tecnica di Lieb-Shultz-Mattis per Hamiltoniane quadratiche a matrici complesse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi si è studiato l’insorgere di eventi critici in un semplice modello neurale del tipo Integrate and Fire, basato su processi dinamici stocastici markoviani definiti su una rete. Il segnale neurale elettrico è stato modellato da un flusso di particelle. Si è concentrata l’attenzione sulla fase transiente del sistema, cercando di identificare fenomeni simili alla sincronizzazione neurale, la quale può essere considerata un evento critico. Sono state studiate reti particolarmente semplici, trovando che il modello proposto ha la capacità di produrre effetti "a cascata" nell’attività neurale, dovuti a Self Organized Criticality (auto organizzazione del sistema in stati instabili); questi effetti non vengono invece osservati in Random Walks sulle stesse reti. Si è visto che un piccolo stimolo random è capace di generare nell’attività della rete delle fluttuazioni notevoli, in particolar modo se il sistema si trova in una fase al limite dell’equilibrio. I picchi di attività così rilevati sono stati interpretati come valanghe di segnale neurale, fenomeno riconducibile alla sincronizzazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro presentato in questa Tesi si basa sul calcolo di modelli dinamici per Galassie Sferoidali Nane studiando il problema mediante l'utilizzo di funzioni di distribuzione. Si è trattato un tipo di funzioni di distribuzione, "Action-Based distribution functions", le quali sono funzioni delle sole variabili azione. Fornax è stata descritta con un'appropriata funzione di distribuzione e il problema della costruzione di modelli dinamici è stato affrontato assumendo sia un alone di materia oscura con distribuzione di densità costante nelle regioni interne sia un alone con cuspide. Per semplicità è stata assunta simmetria sferica e non è stato calcolato esplicitamente il potenziale gravitazionale della componente stellare (le stelle sono traccianti in un potenziale gravitazionale fissato). Tramite un diretto confronto con alcune osservabili, quali il profilo di densità stellare proiettata e il profilo di dispersione di velocità lungo la linea di vista, sono stati trovati alcuni modelli rappresentativi della dinamica di Fornax. Modelli calcolati tramite funzioni di distribuzione basati su azioni permettono di determinare in maniera autoconsistente profili di anisotropia. Tutti i modelli calcolati sono caratterizzati dal possedere un profilo di anisotropia con forte anisotropia tangenziale. Sono state poi comparate le stime di materia oscura di questi modelli con i più comuni e usati stimatori di massa in letteratura. E stato inoltre stimato il rapporto tra la massa totale del sistema (componente stellare e materia oscura) e la componente stellare di Fornax, entro 1600 pc ed entro i 3 kpc. Come esplorazione preliminare, in questo lavoro abbiamo anche presentato anche alcuni esempi di modelli sferici a due componenti in cui il campo gravitazionale è determinato dall'autogravità delle stelle e da un potenziale esterno che rappresenta l'alone di materia oscura.