316 resultados para Bioingegneria, Modelli matematici, Volume del liquido interstiziale


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’elaborato propone un’analisi dettagliata della configurazione del discorso pubblicitario, inteso come il risultato di una duplice operazione: quella di produzione del messaggio, a opera del pubblicitario, utente di precise strategie discorsive, e quella di interpretazione, da parte del destinatario che completa il significato dell’enunciato attribuendogli le proprie peculiari connotazioni. Il corpus utilizzato consiste in una raccolta di spot pubblicitari prodotti dall’azienda Barilla per i telespettatori francofoni, ed è stato reperito presso l’Archivio Storico di Barilla nella sede di Parma. L’illustrazione e la descrizione di alcune pubblicità scelte come modelli forniscono la base per l’approfondimento di alcune problematiche linguistiche e traduttologiche; in particolare, viene posto l’accento sulla nozione di ethos discorsivo, collocabile nell'ambito dell’analisi del discorso, e su quella di stereotipo linguistico, considerato come veicolo culturale e strumento dotato di straordinaria forza assertiva e pertanto prediletto dalla comunicazione pubblicitaria. Tale forma di linguaggio merita di essere analizzata e studiata nella sua ricca complessità, dal momento che è da considerarsi come il più efficace e moderno mezzo di diffusione, incorporazione e assimilazione di valori e comportamenti culturalmente orientati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell'ultimo ventennio l'impatto delle tecnologie wireless ha rivoluzionato il modo di comunicare. Tuttavia oltre a svariati benefici sono emersi diversi problemi di integrazione e ottimizzazione. Uno tra i protocolli più conosciuto e utilizzato in ambito di comunicazioni di rete, il TCP, viene sempre più spesso usato all'interno di sistemi wireless, per le sue caratteristiche di affidabilità e controllo, senza però fornire supporto specifico. Ciò è materia di forte dibattito e ricerca, che mira a cercare di raffinare le differenti versioni di TCP per renderle wireless-oriented. In questo lavoro si analizzano due varianti di sistema che sfruttano il TCP in scenari di mobilità, una con TCP classico e l'altra con TCP modificato tramite l'aggiunta di un meccanismo di ritrasmissione anticipata, e se ne studiano i vari aspetti e comportamenti, valutandone le prestazioni per mezzo di metodi matematici consolidati in letteratura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Alla base dell'elaborato vi è uno studio geometrico differenziale del Taijitu ed in particolare della curva centrale presente nel simbolo; il tutto ripercorrendo cronologicamente ed in termini matematici il cambiamento che il simbolo ha subito nel corso del tempo. Tale studio è consistito, implementando un programma Matlab, nell'approssimazione mediante curve di Bézier, seguita da osservazioni sul grado delle curve trovate e sulla loro differenziabilità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La natura distribuita del Cloud Computing, che comporta un'elevata condivisione delle risorse e una moltitudine di accessi ai sistemi informatici, permette agli intrusi di sfruttare questa tecnologia a scopi malevoli. Per contrastare le intrusioni e gli attacchi ai dati sensibili degli utenti, vengono implementati sistemi di rilevamento delle intrusioni e metodi di difesa in ambiente virtualizzato, allo scopo di garantire una sicurezza globale fondata sia sul concetto di prevenzione, sia su quello di cura: un efficace sistema di sicurezza deve infatti rilevare eventuali intrusioni e pericoli imminenti, fornendo una prima fase difensiva a priori, e, al contempo, evitare fallimenti totali, pur avendo subito danni, e mantenere alta la qualità del servizio, garantendo una seconda fase difensiva, a posteriori. Questa tesi illustra i molteplici metodi di funzionamento degli attacchi distribuiti e dell'hacking malevolo, con particolare riferimento ai pericoli di ultima generazione, e definisce le principali strategie e tecniche atte a garantire sicurezza, protezione e integrità dei dati all'interno di un sistema Cloud.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi ha natura sperimentale ed è mirata alla valutazione, attraverso l’uso di un programma agli elementi finiti tridimensionale, dell’interazione tra lo scavo del pozzo di introduzione scudi e le Mura Aureliane adiacenti a Porta Asinaria, a Roma. La prima parte della tesi si è concentrata sulla caratterizzazione geotecnica, a partire dai dati ricavati dalle campagne d’indagine eseguite nel tempo. Una volta effettuata la caratterizzazione geotecnica si è passati alla calibrazione del modello costitutivo per il terreno; si è scelto di adottare un legame costitutivo elasto-plastico incrudente, l’Hardening Soil Model with Small Strain Stiffness. Si è quindi passati alla definizione geometrica e dei materiali, utilizzando i rilievi strutturali e topografici, e alla conseguente definizione dei parametri del modello costitutivo adottato per la muratura e per il nucleo interno. In questo caso è stato adottato il modello di Mohr-Coulomb. La geometria globale è stata infine importata dal programma di calcolo PLAXIS 3D a partire da un modello tridimensionale realizzato con il programma Autocad Civil 3D. L'analisi agli elementi finiti ha valutato la realizzazione di diverse configurazioni possibili riguardanti la modellazione del pozzo e di eventuali opere di mitigazione degli effetti, quali lo sbancamento a tergo delle Mura e il successivo rinterro, a scavo ultimato. Si è inoltre analizzata l’influenza provocata da un possibile degrado della muratura. In ultimo sono stati analizzati e commentati i risultati di ciascun’analisi eseguita, in termini di stati deformativi e tensionali, ponendo l’attenzione sulle differenze di comportamento rilevate nelle diverse configurazioni adottate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi ha come obiettivo quello di illustrare il flusso informativo che gestisce lo scambio dei dati relativi a cure radioterapiche nell’ambiente di medicina nucleare. La radioterapia comprende tutte quelle cure a base di sostanze radioattive o radiazioni che vengono somministrate a scopo diagnostico o terapeutico. Le due tecniche più utilizzate sono la brachiradioterapia e la radioterapia a fasci esterni. La prima è utilizza solo in casi selezionati di tumori direttamente accessibili e la sua caratteristica principale è la rapida diminuzione della dose con l'allontanarsi dalla sorgente, la seconda tecnica invece consiste nell’irradiare la zona interessata dall’esterno, utilizzando come sorgente di radiazioni una macchina chiamata acceleratore lineare, posta all’esterno del corpo del paziente. Questa terapia ha come obiettivo primario quello di ottenere la migliore distribuzione di dose nel volume bersaglio, risparmiando quanto più possibile i tessuti sani. Già dalla nascita della radioterapia, questa tecnica era caratterizzata dalla presenza di immagini digitali, cioè al contrario di altri reparti radiologici dove le immagini diagnostiche venivano impresse su pellicole, qui le informazioni circolavano già in formato elettronico. Per questo motivo già da subito si è avvertita l’esigenza di trovare una modalità per lo scambio, in maniera efficiente e sicura, di dati clinici per organizzare al meglio la cura del paziente e la pianificazione, anche con macchinari di diversi produttori, del trattamento radioterapico. In tutto questo ha svolto un ruolo fondamentale la proposta di IHE del framework di medicina nucleare, dove si dettavano linee guida per coordinare in maniera semplice e vantaggiosa l’integrazione informativa dei vari attori del processo di cura radioterapico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro di tesi si sono sviluppati un modello molecolare ed una metodologia Molecular Dynamics in grado di simulare il comportamento di particelle attive, alimentate da un motore molecolare, in matrici liquido-cristalline. In particolare, abbiamo sviluppato un metodo di calcolo della temperatura traslazionale ed un algoritmo di termalizzazione compatibili con le condizioni di non-equilibrio del sistema. Dall’analisi delle prove condotte sono emerse variazioni significative nei comportamenti collettivi dei campioni quali segregazioni e flussi coerenti caratterizzati da un alto grado di ordine nematico. Il modello proposto, pur nella nella sua semplicità, può costituire una base per future e più specifiche simulazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il CP-ESFR è un progetto integrato di cooperazione europeo sui reattori a sodio SFR realizzato sotto il programma quadro EURATOM 7, che unisce il contributo di venticinque partner europei. Il CP-ESFR ha l'ambizione di contribuire all'istituzione di una "solida base scientifica e tecnica per il reattore veloce refrigerato a sodio, al fine di accelerare gli sviluppi pratici per la gestione sicura dei rifiuti radioattivi a lunga vita, per migliorare le prestazioni di sicurezza, l'efficienza delle risorse e il costo-efficacia di energia nucleare al fine di garantire un sistema solido e socialmente accettabile di protezione della popolazione e dell'ambiente contro gli effetti delle radiazioni ionizzanti. " La presente tesi di laurea è un contributo allo sviluppo di modelli e metodi, basati sull’uso di codici termo-idraulici di sistema, per l’ analisi di sicurezza di reattori di IV Generazione refrigerati a metallo liquido. L'attività è stata svolta nell'ambito del progetto FP-7 PELGRIMM ed in sinergia con l’Accordo di Programma MSE-ENEA(PAR-2013). Il progetto FP7 PELGRIMM ha come obbiettivo lo sviluppo di combustibili contenenti attinidi minori 1. attraverso lo studio di due diverse forme: pellet (oggetto della presente tesi) e spherepac 2. valutandone l’impatto sul progetto del reattore CP-ESFR. La tesi propone lo sviluppo di un modello termoidraulico di sistema dei circuiti primario e intermedio del reattore con il codice RELAP5-3D© (INL, US). Tale codice, qualificato per il licenziamento dei reattori nucleari ad acqua, è stato utilizzato per valutare come variano i parametri del core del reattore rilevanti per la sicurezza (es. temperatura di camicia e di centro combustibile, temperatura del fluido refrigerante, etc.), quando il combustibile venga impiegato per “bruciare” gli attinidi minori (isotopi radioattivi a lunga vita contenuti nelle scorie nucleari). Questo ha comportato, una fase di training sul codice, sui suoi modelli e sulle sue capacità. Successivamente, lo sviluppo della nodalizzazione dell’impianto CP-ESFR, la sua qualifica, e l’analisi dei risultati ottenuti al variare della configurazione del core, del bruciamento e del tipo di combustibile impiegato (i.e. diverso arricchimento di attinidi minori). Il testo è suddiviso in sei sezioni. La prima fornisce un’introduzione allo sviluppo tecnologico dei reattori veloci, evidenzia l’ambito in cui è stata svolta questa tesi e ne definisce obbiettivi e struttura. Nella seconda sezione, viene descritto l’impianto del CP-ESFR con attenzione alla configurazione del nocciolo e al sistema primario. La terza sezione introduce il codice di sistema termico-idraulico utilizzato per le analisi e il modello sviluppato per riprodurre l’impianto. Nella sezione quattro vengono descritti: i test e le verifiche effettuate per valutare le prestazioni del modello, la qualifica della nodalizzazione, i principali modelli e le correlazioni più rilevanti per la simulazione e le configurazioni del core considerate per l’analisi dei risultati. I risultati ottenuti relativamente ai parametri di sicurezza del nocciolo in condizioni di normale funzionamento e per un transitorio selezionato sono descritti nella quinta sezione. Infine, sono riportate le conclusioni dell’attività.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I capodogli (Physeter macrocephalus) sono mammiferi marini con distribuzione cosmopolita; sono presenti anche nel Mar Mediterraneo, soprattutto nella zona occidentale del bacino. Per individuare la presenza di questi animali possono essere utilizzate differenti modalità. Questo studio è stato condotto tramite l’uso di metodi acustici passivi, in quanto i capodogli (P. macrocephalus) sono animali che emettono suoni. L’uso di metodi acustici ha alcuni vantaggi, infatti permette di individuare la presenza di un animale anche se si trova al di sotto della superficie dell’acqua, purché stia emettendo suoni. Le registrazioni possono essere effettuate indipendentemente dalle condizioni meteorologiche e per lunghi periodi di tempo, permettendo la continuità nella raccolta dei dati. Il lavoro di tesi è stato svolto nell’ambito di un Progetto di Ricerca de L’Oceanogràfic di Valencia. Le registrazioni sono state effettuate tramite lo strumento EAR (Ecological Acoustic Recorder) in due aree del Mar Balear, il Mar di Bamba e il Parco Nazionale di Cabrera, in differenti periodi, profondità e con diverse frequenze di campionamento (50 kHz e 5 kHz). I dati ottenuti sono stati analizzati tramite i programmi X-BAT (Extensible Bioacoustic Tool) e Adobe Audition 3.0 al fine di rilevare i pulsi emessi dai capodogli. Per entrambe le aree di studio i dati sono stati elaborati in modo da ottenere modelli giornalieri e stagionali delle ore positive e del numero di pulsi emessi. La presenza di P. macrocephalus è stata confermata in entrambe le aree di studio, e dal confronto delle analisi spettrali dei pulsi si può affermare che, nonostante le differenze, i pulsi registrati in entrambe le aree sono effettivamente emessi da capodogli. Il lavoro di Tesi permette di suggerire che per futuri studi sia applicata la frequenza di registrazione di 20 kHz utilizzando lo strumento SAMARUC, alla cui progettazione ha partecipato L’Oceanogràfic di Valencia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi introduce il problema matematico della rovina del giocatore dopo un'introduzione storica relativa allo sviluppo del gioco d'azzardo ed alla sua concezione sociale. Segue un'analisi di alcuni particolari giochi con un approfondimento sul calcolo della probabilità di vittoria e sul gioco equo. Infine sono introdotti alcuni preliminari matematici relativi alla misura, alle successioni di Bernoulli ed alle leggi dei grandi numeri, necessari per comprendere il problema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro intende offrire un riassunto dello “stato dell’arte” della Cosmologia: dopo averne ripercorso per sommi capi la storia degli ultimi cent’anni (cap.1), verrà illustrato il Modello Cosmologico Standard “ΛCDM” (cap.2), che è quello generalmente accettato dalla comunità scientifica allo stato attuale delle conoscenze; infine, si farà un breve “excursus” sulle questioni “aperte” e sui modelli cosmologici alternativi (cap.3).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi è finalizzato allo sviluppo di un dispositivo indossabile, e minimamente invasivo, in grado di registrare in maniera continua segnali legati all’attività elettromeccanica del muscolo cardiaco, al fine di rilevare eventuali anomalie cardiache. In tal senso il sistema non si limita alla sola acquisizione di un segnale ECG, ma è in grado di rilevare anche i toni cardiaci, ovvero le vibrazioni generate dalla chiusura delle valvole cardiache, la cui ampiezza è espressione della forza contrattile (funzione meccanica) del cuore. Il presente lavoro di tesi ha riguardato sia la progettazione che la realizzazione di un prototipo di tale dispositivo ed è stato svolto presso il laboratorio di Bioingegneria del Dipartimento di Medicina Specialistica Diagnostica e Sperimentale dell’Università di Bologna, sito presso l’Azienda Ospedaliero-Universitaria Policlinico Sant’Orsola-Malpighi. Il sistema finale consiste in un dispositivo applicabile al torace che, attraverso una serie di sensori, è in grado di rilevare dati legati alla meccanica del cuore (toni cardiaci), dati elettrici cardiaci (ECG) e dati accelerometrici di attività fisica. Nello specifico, il sensing dei toni cardiaci avviene attraverso un accelerometro in grado di misurare le vibrazioni trasmesse al torace. I tracciati, raccolti con l’ausilio di una piattaforma Arduino, vengono inviati, tramite tecnologia Bluetooth, ad un PC che, attraverso un applicativo software sviluppato in LabVIEW™, ne effettua l’analisi, il salvataggio e l’elaborazione in real-time, permettendo un monitoraggio wireless ed in tempo reale dello stato del paziente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo studio della memoria semantica attraverso modelli teorici (qualitativi o matematici) gioca un ruolo importante nelle neuroscienze cognitive. In questa tesi viene presentato un modello della memoria semantica e lessicale. Il principio alla base del modello è che la semantica di un oggetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione dell’oggetto nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate del cervello, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è indagare i meccanismi che portano alla formazione di categorie, analizzare il ruolo delle diverse proprietà nella costruzione di un concetto e le connessioni tra queste proprietà e la parola corrispondente al nome dell’oggetto. Durante l’addestramento per ogni oggetto sono presentate alcune proprietà in input, con una data frequenza: alcune sono condivise, cioè appartengono a più di un concetto e permettono la formazione di categorie, altre sono distintive, cioè sono tipiche di un concetto e consentono la rappresentazione dei membri di una categoria. Un ulteriore aspetto riguardante le proprietà è la distinzione fra proprietà salienti, che sono spontaneamente evocate, e proprietà marginali. E’ stata utilizzata una tassonomia composta da 11 parole che identificano 11 animali. La salienza è stabilita dalla frequenza con cui si verifica ciascuna proprietà. La distinzione tra proprietà condivise e distintive, e tra proprietà salienti e non salienti, è stata ottenuta mediante l’uso della regola di Hebb con una diversa soglia presinaptica e postsinaptica, producendo patterns di sinapsi asimmetriche all’interno della rete semantica (auto-associazione) e tra la rete semantica e lessicale (etero-associazione). La rete addestrata è in grado di risolvere compiti di riconoscimento e denominazione di oggetti, mantenendo una distinzione tra le categorie e i suoi membri, e fornendo un diverso ruolo per le proprietà salienti rispetto alle proprietà marginali.