999 resultados para Diffusione non lineare, filtraggio, denoising, EDP, PDE, differenze finite, schemi numerici
Resumo:
La riduzione dei consumi di combustibili fossili e lo sviluppo di tecnologie per il risparmio energetico sono una questione di centrale importanza sia per l’industria che per la ricerca, a causa dei drastici effetti che le emissioni di inquinanti antropogenici stanno avendo sull’ambiente. Mentre un crescente numero di normative e regolamenti vengono emessi per far fronte a questi problemi, la necessità di sviluppare tecnologie a basse emissioni sta guidando la ricerca in numerosi settori industriali. Nonostante la realizzazione di fonti energetiche rinnovabili sia vista come la soluzione più promettente nel lungo periodo, un’efficace e completa integrazione di tali tecnologie risulta ad oggi impraticabile, a causa sia di vincoli tecnici che della vastità della quota di energia prodotta, attualmente soddisfatta da fonti fossili, che le tecnologie alternative dovrebbero andare a coprire. L’ottimizzazione della produzione e della gestione energetica d’altra parte, associata allo sviluppo di tecnologie per la riduzione dei consumi energetici, rappresenta una soluzione adeguata al problema, che può al contempo essere integrata all’interno di orizzonti temporali più brevi. L’obiettivo della presente tesi è quello di investigare, sviluppare ed applicare un insieme di strumenti numerici per ottimizzare la progettazione e la gestione di processi energetici che possa essere usato per ottenere una riduzione dei consumi di combustibile ed un’ottimizzazione dell’efficienza energetica. La metodologia sviluppata si appoggia su un approccio basato sulla modellazione numerica dei sistemi, che sfrutta le capacità predittive, derivanti da una rappresentazione matematica dei processi, per sviluppare delle strategie di ottimizzazione degli stessi, a fronte di condizioni di impiego realistiche. Nello sviluppo di queste procedure, particolare enfasi viene data alla necessità di derivare delle corrette strategie di gestione, che tengano conto delle dinamiche degli impianti analizzati, per poter ottenere le migliori prestazioni durante l’effettiva fase operativa. Durante lo sviluppo della tesi il problema dell’ottimizzazione energetica è stato affrontato in riferimento a tre diverse applicazioni tecnologiche. Nella prima di queste è stato considerato un impianto multi-fonte per la soddisfazione della domanda energetica di un edificio ad uso commerciale. Poiché tale sistema utilizza una serie di molteplici tecnologie per la produzione dell’energia termica ed elettrica richiesta dalle utenze, è necessario identificare la corretta strategia di ripartizione dei carichi, in grado di garantire la massima efficienza energetica dell’impianto. Basandosi su un modello semplificato dell’impianto, il problema è stato risolto applicando un algoritmo di Programmazione Dinamica deterministico, e i risultati ottenuti sono stati comparati con quelli derivanti dall’adozione di una più semplice strategia a regole, provando in tal modo i vantaggi connessi all’adozione di una strategia di controllo ottimale. Nella seconda applicazione è stata investigata la progettazione di una soluzione ibrida per il recupero energetico da uno scavatore idraulico. Poiché diversi layout tecnologici per implementare questa soluzione possono essere concepiti e l’introduzione di componenti aggiuntivi necessita di un corretto dimensionamento, è necessario lo sviluppo di una metodologia che permetta di valutare le massime prestazioni ottenibili da ognuna di tali soluzioni alternative. Il confronto fra i diversi layout è stato perciò condotto sulla base delle prestazioni energetiche del macchinario durante un ciclo di scavo standardizzato, stimate grazie all’ausilio di un dettagliato modello dell’impianto. Poiché l’aggiunta di dispositivi per il recupero energetico introduce gradi di libertà addizionali nel sistema, è stato inoltre necessario determinare la strategia di controllo ottimale dei medesimi, al fine di poter valutare le massime prestazioni ottenibili da ciascun layout. Tale problema è stato di nuovo risolto grazie all’ausilio di un algoritmo di Programmazione Dinamica, che sfrutta un modello semplificato del sistema, ideato per lo scopo. Una volta che le prestazioni ottimali per ogni soluzione progettuale sono state determinate, è stato possibile effettuare un equo confronto fra le diverse alternative. Nella terza ed ultima applicazione è stato analizzato un impianto a ciclo Rankine organico (ORC) per il recupero di cascami termici dai gas di scarico di autovetture. Nonostante gli impianti ORC siano potenzialmente in grado di produrre rilevanti incrementi nel risparmio di combustibile di un veicolo, è necessario per il loro corretto funzionamento lo sviluppo di complesse strategie di controllo, che siano in grado di far fronte alla variabilità della fonte di calore per il processo; inoltre, contemporaneamente alla massimizzazione dei risparmi di combustibile, il sistema deve essere mantenuto in condizioni di funzionamento sicure. Per far fronte al problema, un robusto ed efficace modello dell’impianto è stato realizzato, basandosi sulla Moving Boundary Methodology, per la simulazione delle dinamiche di cambio di fase del fluido organico e la stima delle prestazioni dell’impianto. Tale modello è stato in seguito utilizzato per progettare un controllore predittivo (MPC) in grado di stimare i parametri di controllo ottimali per la gestione del sistema durante il funzionamento transitorio. Per la soluzione del corrispondente problema di ottimizzazione dinamica non lineare, un algoritmo basato sulla Particle Swarm Optimization è stato sviluppato. I risultati ottenuti con l’adozione di tale controllore sono stati confrontati con quelli ottenibili da un classico controllore proporzionale integrale (PI), mostrando nuovamente i vantaggi, da un punto di vista energetico, derivanti dall’adozione di una strategia di controllo ottima.
Resumo:
La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.
Resumo:
La tesi tratta della modellistica e del controllo di un attuatore idraulico con valvola a quattro vie. Inizialmente si definiscono le grandezze e le formule fondamentali per descrivere un sistema idraulico e costruirne il modello matematico. Successivamente si ricava il modello non lineare del sistema nello spazio degli stati, quindi lo si linearizza per poterlo descrivere e studiare anche tramite funzioni di trasferimento. Si ricava quindi, utilizzando anche Matlab e Simulink, il controllo da applicare al modello linearizzato e si testa il comportamento del sistema in risposta a diversi segnali di ingresso. Infine si applica lo stesso controllore al sistema non lineare e si confrontano i due diversi comportamenti.
Resumo:
degli elementi vegetali nella dinamica e nella dispersione degli inquinanti nello street canyon urbano. In particolare, è stato analizzata la risposta fluidodinamica di cespugli con altezze diverse e di alberi con porosità e altezza del tronco varianti. Il modello analizzato consiste in due edifici di altezza e larghezza pari ad H e lunghezza di 10H, tra i quali corre una strada in cui sono stati modellizati una sorgente rappresentativa del traffico veicolare e, ai lati, due linee di componenti vegetali. Le simulazioni sono state fatte con ANSYS Fluent, un software di "Computational Fluid Dynamics"(CFD) che ha permesso di modellizare la dinamica dei flussi e di simulare le concentrazioni emesse dalla sorgente di CO posta lungo la strada. Per la simulazione è stato impiegato un modello RANS a chiusura k-epsilon, che permette di parametrizzare i momenti secondi nell'equazione di Navier Stokes per permettere una loro più facile risoluzione. I risultati sono stati espressi in termini di profili di velocità e concentrazione molare di CO, unitamente al calcolo della exchange velocity per quantificare gli scambi tra lo street canyon e l'esterno. Per quanto riguarda l'influenza dell'altezza dei tronchi è stata riscontrata una tendenza non lineare tra di essi e la exchange velocity. Analizzando invece la altezza dei cespugli è stato visto che all'aumentare della loro altezza esiste una relazione univoca con l'abbassamento della exchange velocity. Infine, andando a variare la permeabilità delle chiome degli alberi è stata trovatta una variazione non monotonica che correla la exchange velocity con il parametro C_2, che è stata interpretata attraverso i diversi andamenti dei profili sopravento e sottovento. In conclusione, allo stadio attuale della ricerca presentata in questa tesi, non è ancora possibile correlare direttamente la exchange velocity con alcun parametro analizzato.
Resumo:
I simulatori di guida sono strumenti altamente tecnologici che permettono di svolgere attività di ricerca in vari ambiti quali la psicologia, la medicina e l’ingegneria. Tuttavia, affinché i dati ottenuti mediante le simulazioni siano rapportabili alla loro controparte reale, la fedeltà delle componenti del simulatore di guida deve essere elevata. Questo lavoro tratta del miglioramento del sistema di restituzione del movimento nel simulatore a due gradi di libertà (2DOF) SIMU-LACET Driving Simulator, costruito e sviluppato presso il laboratorio LEPSIS dell’IFSTTAR (Istituto Francese delle Scienze e Tecnologie dei Trasporti, dello Sviluppo e delle Reti), in particolare nella sua sede di Parigi – Marne-la-Vallée. Si è deciso di andare a riprogettare la parte software del sistema di restituzione del movimento (motion cueing), operando su due elementi principali: lo scale factor (fattore di scala) applicato agli impulsi dinamici provenienti dal modello veicolare e i Motion Cueing Algorihms (MCA, algoritmi di restituzione del movimento), questo per entrambi i gradi di libertà. Si è quindi intervenuti sul modello esistente implementato in MATLAB-Simulink nello specifico blocco del motion cueing sul surge (traslazione longitudinale) e sul yaw (imbardata). Riguardo lo scale factor, è stata introdotta una metodologia per creare uno scale factor non lineare in forma esponenziale, tale da migliorare la restituzione degli impulsi meno ampi, pur rispettando i limiti fisici della piattaforma di movimento. Per quanto concerne il MCA, si sono vagliate diverse transfer function dell’algoritmo classico. La scelta finale dei MCA e la validazione del motion cueig in genere è stata effettuata mediante due esperimenti ed il giudizio dei soggetti che vi hanno partecipato. Inoltre, in virtù dei risultati del primo esperimento, si è investigata l’influenza che la strategia in merito al cambio delle marce avesse sulla percezione del movimento da parte del guidatore.
Resumo:
Il progetto di tesi è incentrato sull’ottimizzazione del procedimento di taratura dei regolatori lineari degli anelli di controllo di posizione e velocità presenti negli azionamenti usati industrialmente su macchine automatiche, specialmente quando il carico è ad inerzia variabile in dipendenza dalla posizione, dunque non lineare, come ad esempio un quadrilatero articolato. Il lavoro è stato svolto in collaborazione con l’azienda G.D S.p.A. ed il meccanismo di prova è realmente utilizzato nelle macchine automatiche per il packaging di sigarette. L’ottimizzazione si basa sulla simulazione in ambiente Matlab/Simulink dell’intero sistema di controllo, cioè comprensivo del modello Simulink degli anelli di controllo del drive, inclusa la dinamica elettrica del motore, e del modello Simscape del meccanismo, perciò una prima necessaria fase del lavoro è stata la validazione di tali modelli affinché fossero sufficientemente fedeli al comportamento reale. Il secondo passo è stato fornire una prima taratura di tentativo che fungesse da punto di partenza per l’algoritmo di ottimizzazione, abbiamo fatto ciò linearizzando il modello meccanico con l’inerzia minima e utilizzando il metodo delle formule di inversione per determinare i parametri di controllo. Già questa taratura, seppur conservativa, ha portato ad un miglioramento delle performance del sistema rispetto alla taratura empirica comunemente fatta in ambito industriale. Infine, abbiamo lanciato l’algoritmo di ottimizzazione definendo opportunamente la funzione di costo, ed il risultato è stato decisamente positivo, portando ad un miglioramento medio del massimo errore di inseguimento di circa il 25%, ma anche oltre il 30% in alcuni casi.
Resumo:
La presente tesi, in particolare, sfrutta un metodo di analisi semplificato di “loss assessment” o analisi delle perdite economiche, considerando un edificio esistente in CA. L’edificio caso di studio è un tipico edificio intelaiato in CA sito sull’appennino, e progettato e costruito negli anni ’70, dunque, senza tenere conto dell’azione orizzontale del sisma, per cui non presenta i dettagli costruttivi atti a soddisfare i requisiti minimi di duttilità. È stata effettuata una analisi statica non lineare (Pushover), per studiare la risposta della struttura esistente alle azioni orizzontali. Al fine di migliorare il confinamento delle colonne in CA, è stato scelto di utilizzare dei rinforzi locali, tipicamente utilizzati in Italia nella pratica progettuale, atti a migliorare le caratteristiche di duttilità e/o resistenza degli elementi rinforzati, e di conseguenza capaci di migliorare le caratteristiche globali dell’intero sistema strutturale. Sono state selezionate tre diverse tecnologie: le “Fiber Reinforced Polymers” (FRP), il “Concrete Jacketing” (CJ) e il sistema di Cerchiature Attive dei Manufatti (CAM). Nella presente tesi verranno presentate diverse applicazioni di questi sistemi, enunciandone i miglioramenti rispetto al caso “As-built” e poi confrontandole tra di loro in modo da fornire elementi validi a supporto della fase decisionale per la progettazione dell’intervento sull’edificio. Infine vengono valutate le perdite economiche medie annue attese, insieme ad altri parametri sintetici di analisi delle perdite e di analisi costi-benefici. Il fine di questo processo è di studiare quanto uno specifico intervento di miglioramento sismico, applicato all’edificio As-built, consenta di ridurre le perdite economiche sismiche stimate in un anno di vita della struttura, e poi nel corso della sua vita utile, per fornire un elemento di paragone utile per la scelta dell’intervento ottimale.
Resumo:
Le equazioni alle derivate parziali lineari (PDE’s) hanno un ruolo centrale in molte applicazioni di tipo scientifico, ingegneristico, medico, finanziario e sociale. È necessario, per questo motivo, avere metodi robusti che permettano di approssimare soluzioni di classi di PDE’s. Nell’ambito dei problemi lineari ellittici stazionari, una delle procedure comunemente utilizzate consiste nel discretizzare l’equazione differenziale mediante l’approssimazione delle derivate con differenze finite nel dominio considerato, e risolvere il sistema lineare algebrico risultante. Lo scopo dell’elaborato è studiare la dipendenza della convergenza del metodo dei Gradienti Coniugati dal parametro di discretizzazione per problemi ellittici autoaggiunti. Studieremo inoltre accelerazioni del metodo di tipo “Operator preconditioning”, che permettono di rendere l’algoritmo indipendente da tale parametro di discretizzazione in termini di numero di iterazioni.
Resumo:
La tomografia ad impedenza elettrica è un metodo di imaging relativamente nuovo che ha suscitato interesse in un ampia gamma di discipline, la sua portabilità, sicurezza e basso costo suggeriscono che potrebbe risolvere diversi problemi clinici. Matematicamente il problema dell'EIT può essere suddiviso in un problema in avanti e uno inverso. Il problema forward, si basa su un'equazione differenziale parziale ellittica, e definisce l'insieme delle tensioni misurate a partire da una distribuzione nota di conducibilità. Il problema inverso è modellato come un problema dei minimi quadrati non lineare, in cui si cerca di ridurre al minimo la differenza tra le tensioni misurate e quelle generate dalla conducibilità ricostruita. Il problema inverso è mal posto e porta ad una soluzione che non dipende con continuità dai dati e quindi le tecniche di ricostruzione richiedono l'introduzione di un termine di regolarizzazione. L'elaborato si concentra sulle strategie algoritmiche per il problema inverso e sulla realizzazione di un'interfaccia grafica in grado di settare i parametri e confrontare velocemente i metodi proposti. Il progetto nella sua visione più ampia vorrebbe utilizzare le strategie algoritmiche proposte per dati ottenuti dal sistema prodotto dall'Università di Bologna nel laboratorio di Ingegneria Cellulare e Molecolare (ICM) di Cesena. I risultati dei test consentono di delineare quali siano gli strumenti migliori per poter arrivare ad una corretta ricostruzione dell'immagine nonché suggerire possibili miglioramenti della configurazione hardware al fine arrivare a risultati sperimentali completi.
Resumo:
La colonna vertebrale è comunemente affetta da metastasi, che possono alterare le normali proprietà meccaniche dell’osso. Indagare gli effetti delle metastasi a livello nanostrutturale e comprendere la relazione tra quantità dell’osso, qualità dell’osso e proprietà meccaniche può migliorare la previsione della comparsa di fratture dovute alle metastasi. Lo scopo di questo lavoro è stato quello di valutare le proprietà meccaniche, come durezza, modulo elastico, lavoro totale, lavoro elastico e lavoro dissipato del tessuto blastico. In questo lavoro, tredici provini dal nucleo di vertebre lombari affette da metastasi blastiche sono stati preparati e sono state effettuate nanoindentazioni su differenti gruppi di provini (tessuto trabecolare lamellare, tessuto blastico lamellare, tessuto blastico non organizzato) per indagare le potenziali differenze tra quelli con un’apparenza sana e quelli con un’apparenza metastatica. I risultati ottenuti dall’analisi statistica hanno mostrato che durezza e modulo elastico risultavano inferiori (4.1% e 3.5% rispettivamente) nei provini blastici non organizzati quando questi sono stati messi a confronto con provini lamellari. Similarmente, la durezza è risultata inferiore (4.1%) nei provini blastici non organizzati quando questi sono stati messi a confronto con quelli blastici lamellari. Inoltre, mediante un’analisi di correlazione, è stata trovata una relazione significativa tra il modulo elastico e la durezza nel caso dei provini blastici lamellari e blastici non organizzati. Infine, il lavoro totale è risultato maggiore (2.8%) nei provini blastici non organizzati quando questi sono stati messi a confronto con quelli trabecolari lamellari. In conclusione, i risultati di questo studio evidenziano l’importanza di indagare le proprietà meccaniche locali del tessuto blastico per valutare la competenza meccanica delle vertebre metastatiche a livello nanostrutturale.
Resumo:
Introduzione: Il COVID-19 colpisce vari apparati e il meccanismo di diffusione non è noto. La quarantena durante la malattia inoltre costringe alla sedentarietà con ripercussioni fisiche e psicologiche. Lo studio indaga se il COVID-19 possa avere un’influenza sugli infortuni e sulla performance sportiva dei podisti e il ruolo della fisioterapia nella riabilitazione post infortunio. Materiali e metodi: La raccolta dati è avvenuta tramite distribuzione di questionari cartacei e digitali nelle società podistiche italiane dal 2 Marzo al 15 Aprile 2022. I criteri di inclusione erano l’essere maggiorenni, allenarsi almeno 1-2 volte a settimana e comprendere la lingua italiana. Risultati: 245 podisti rispettavano i criteri di inclusione. Negli ultimi 3 anni l’81,63% è incorso in infortunio; per la riabilitazione la maggior parte degli atleti si è rivolta a un fisioterapista e il grado di soddisfazione della riabilitazione è molto alto. Il 45,31% ha contratto il COVID-19 e di questi il 47,74% ha riferito una percezione di diminuzione della performance dopo la malattia, la quale non è influenzata dalla durata dell’interruzione degli allenamenti. Il 48,65% è incorso in infortunio dopo il COVID-19 e il tasso d’infortunio è maggiore rispetto al periodo antecedente al contagio. Non vi è invece differenza tra l’incidenza di infortunio di chi ha contratto il COVID-19 e il restante campione. Conclusione: Il COVID-19 potrebbe non predisporre maggiormente l’atleta a infortunio rispetto alla popolazione generale, ma potrebbe aumentare la sua suscettibilità rispetto al periodo antecedente al contagio. Il percorso riabilitativo più efficace per il recupero è quello intrapreso affidandosi a professionisti sanitari del settore. La malattia per molti ha un impatto molto negativo sulla propria performance, ma questo non dipende dall’interruzione prolungata degli allenamenti e quindi potrebbe non essere dovuto al deallenamento ma a qualche aspetto non ancora indagato in letteratura.
Resumo:
Il presente studio analizza l’attuale tendenza del sistema televisivo statunitense all’ibridazione con i modelli affermati già nell’era dominata dai network prima, e dalla CATV poi. Dopo una mappatura storica che permette di comprendere e apprezzare i continui cambiamenti dell’industria televisiva, lo scritto si concentra sull’analisi delle varie strategie manageriali (e sulle retoriche) che stanno alla base delle prime fasi dei servizi non lineari. Si esaminano inoltre le modalità che governano ora i tentativi di recupero di esperienze che sembravano ormai superate per lasciare spazio proprio ai modelli OTT. Infatti, data la non sostenibilità sul lungo periodo delle forme economiche, distributive, produttive, etc., adottate delle piattaforme streaming come Netflix, Amazon Prime Video e Disney+, queste cercano ora di ricostruire una dimensione lineare, alla cui matrice troviamo la weekly release, la pubblicità, la sincronizzazione sociale, la diretta e altro ancora – si pensi ai casi Pluto TV e Peacock TV, esempi di servizi HVOD (Hybrid Video on Demand) che stanno tracciando dei nuovi percorsi pur senza dimenticare ciò che ha funzionato in passato.
Resumo:
This work is related to the so-called non-conventional finite element formulations. Essentially, a methodology for the enrichment of the initial approximation which is typical of the meshless methods and based on the clouds concept is introduced in the hybrid-Trefftz formulation for plane elasticity. The formulation presented allows for the approximation and direct enrichment of two independent fields: stresses in the domains and displacements on the boundaries of the elements. Defined by a set of elements and interior boundaries sharing a common node, the cloud notion is employed to select the enrichment support for the approximation fields. The numerical analysis performed reveals an excellent performance of the resulting formulation, characterized by the good approximation ability and a reduced computational effort. Copyright (C) 2009 John Wiley & Sons, Ltd.
Resumo:
This article analyzes Folner sequences of projections for bounded linear operators and their relationship to the class of finite operators introduced by Williams in the 70ies. We prove that each essentially hyponormal operator has a proper Folner sequence (i.e. a Folner sequence of projections strongly converging to 1). In particular, any quasinormal, any subnormal, any hyponormal and any essentially normal operator has a proper Folner sequence. Moreover, we show that an operator is finite if and only if it has a proper Folner sequence or if it has a non-trivial finite dimensional reducing subspace. We also analyze the structure of operators which have no Folner sequence and give examples of them. For this analysis we introduce the notion of strongly non-Folner operators, which are far from finite block reducible operators, in some uniform sense, and show that this class coincides with the class of non-finite operators.
Resumo:
The back-to-back correlations (BBC) of particle-antiparticle pairs, signalling in-medium mass modification, are studied in a finite size thermalized medium. The width of BBC function is explicitly evaluated in the case of a nonrelativistic spherically symmetric expanding fireball. The effect of the flow is to reduce the BBC signal as compared to the case of non flow. Nevertheless, a significant signal survives finite-time emission plus expansion effects.