410 resultados para sospensione progressiva curva rigidezza MATHEMATICA foglio di calcolo
Resumo:
Poiché nell’ultimo decennio i dispositivi mobile assumono un ruolo sempre più determinante nello svolgimento della vita stessa, nel corso del tempo si sono ricercate e sviluppate app per facilitare le più svariate operazioni quotidiane. Visto la vastità del mercato degli smartphone, nel tempo sono stati sviluppati vari sistemi operativi in grado di governare queste piattaforme. Per una azienda, tuttavia, gestire i costi di implementazione di una stessa app in ambienti differenti risulta più oneroso che gestire i costi di una sola in grado di operare nei diversi sistemi operativi. Quest’ultimo tipo di app viene comunemente denominato app multipiattaforma. Un modo per implementare questo genere di applicazioni vede come strumento di utilizzo Visual Studio, noto IDE. Nel caso specifico Visual Studio ha integrato il progetto Apache Cordova per le creazione di applicativi multipiattaforma. In questo elaborato di tesi tramite i due strumenti appena introdotti si sono sviluppate due differenti app, al fine di valutarne le performance in termini di tempo. La prima app propone la risoluzione di un noto problema di calcolo combinatorio conosciuto con il nome di Knapsack, ovvero il problema dello zaino. La seconda cerca invece di digitalizzare una semplice espressione matematica contenuta in un’immagine e di fornirne quindi il risultato. Dai dati ottenuti si possono operare confronti per determinare la validità dello strumento di sviluppo, mettendo in luce anche possibili evoluzioni di queste due app.
Resumo:
Lo scopo principale di questa tesi è la valutazione del comportamento globale e dei danni subiti da un edificio in muratura esistente utilizzando un recente programma di calcolo sviluppato appositamente per lo studio in campo non lineare delle strutture in muratura, attraverso una modellazione a telaio equivalente con macroelementi; direttamente connesso a quest’aspetto vi è la valutazione della vulnerabilità sismica dell’edificio stesso, mediante i coefficienti o parametri definiti per i diversi stati limite considerati.
Resumo:
Scopo di questo lavoro è l’individuazione di una metodica che permetta la valutazione dosimetrica interna dei lavoratori in Medicina Nucleare, dell’I.R.S.T. I radionuclidi impiegati hanno elevata volatilità e tempi di dimezzamento molto brevi quindi, diventa di fondamentale importanza la misura della concentrazione in aria. come radioisotopo d'interesse è stato considerato il F-18. Per la misura della contaminazione in aria è stato utilizzato un sistema progettato dall’azienda MecMurphil (MP-AIR). L’aria attraversa un beaker Marinelli, posto in un pozzetto schermato in piombo (5/6 cm di spessore più rivestimento in rame di 3 mm) nel quale è inserito un rivelatore a scintillazione NaI(Tl) a basso fondo in modalità di campionamento continuo. Attraverso il software MAIR-C, collegato al rivelatore, è stato possibile calibrarlo in energia, FWHM e efficienza. I locali analizzati, poiché quotidianamente frequentati dal personale, sono: Laboratorio caldo, Corridoio, Attesa calda, Camere degenza, e Radiofarmacia. Mediante l’uso di fogli di calcolo, è stata determinata la concentrazione media presente nei diversi locali. I risultati ottenuti hanno mostrato che la concentrazione massima di F-18 è nella radiofarmacia.Le persone con accesso ai locali “caldi” sono state classificate, sulla base delle attività da loro svolte in: medici, TSRM, infermieri e radiofarmacisti. Per ognuna di queste figure è stato stimato il tempo di permanenza all’interno dei locali.Si è proceduto, poi, alla validazione del metodo utilizzato per il calcolo della dose interna per inalazione, applicando quanto riportato nella pubblicazione I.C.R.P. 66, che ha come scopo principale quello di determinare i limiti annuali d’introduzione dei radionuclidi per i lavoratori.Le metodiche, applicate al solo radioisotopo F-18, permettono di ricavare una prima stima della dose inalata dagli operatori, aprendo un’ ampia gamma di possibili sviluppi futuri.
Resumo:
In questo lavoro di tesi si è realizzato un modello matematico con l’intento di fornire uno strumento per lo studio della risposta cardiovascolare alla contropulsazione esterna. L’ EECP (Enhanced External Counterpulsation) è un metodo non invasivo di assistenza cardiaca basato sull’applicazione di pressioni sincronizzate col ritmo cardiaco su determinate superfici corporee. I benefici della terapia su pazienti con sofferenze cardiache sono confermati dalle tabelle cliniche; rimane tuttavia non chiaro il legame diretto tra questi e la EECP. La base del lavoro è un modello della circolazione sanguigna adattato allo studio della situazione in esame e riprodotto mediante il software di calcolo Matlab. Il modello proposto e la relativa simulazione numerica permettono la visualizzazione istantanea delle modifiche che l’azione di contropulsazione apporta al flusso e alla pressione sanguigna, al fine di offrire un aiuto nella ricerca di un legame diretto tra la EECP e i benefici che questa terapia ha sul paziente.
Resumo:
Il segnale elettrico si propaga nel tessuto cardiaco attraverso gap-junctions che si trovano tra i miociti cardiaci e in ciascuno di essi si avvia un processo chiamato potenziale d'azione (PA). In questa tesi prenderò in considerazione il modello Luo-Rudy 1991 e il difetto oggetto di studio sono le Early Afterdepolarizations (EADs). Si analizzerà la propagazione del potenziale d’azione in un cavo di 300 cellule. Dopo alcune simulazioni preliminari è emersa l’utilità di trovare una soluzione che permettesse di ridurre i tempi di calcolo, il modello è stato quindi implementato in CUDA. Il lavoro è stato sviluppato nei seguenti step: 1) l’impiego dell’ambiente di calcolo MATLAB per implementare il modello, descrivendo ogni cellula attraverso il modello Luo-Rudy 1991 e l’interazione elettrica inter-cellulare, considerando un cavo di 300 cellule; 2) individuazione dei parametri che, adeguatamente modificati, sono in grado di indurre EADs a livello single cell; 3) implementazione del modello in CUDA, creando uno strumento che potrà essere utilizzato per aumentare notevolmente il numero delle simulazioni nell’unità di tempo; 4) messa a punto di un criterio per valutare in modo conciso la bontà (safety factor) della relazione source-sink. L’utilità di un simile criterio è quella di valutare, sia nel caso di propagazione di AP che in quello di eventuale propagazione di EADs, la propensione alla propagazione in un tessuto. Il primo capitolo descriverà il potenziale d’azione, il modello usato e la teoria del cavo. Il secondo capitolo discuterà l’implementazione del modello usato, descriverà CUDA e come il modello sia stato implementato. Il terzo capitolo riguarderà i primi risultati ottenuti dalle simulazioni e come la variazione dei parametri influisce sulla forma delle EADs. L’ultimo capitolo approfondirà i requisiti necessari per far avvenire una propagazione in un cavo.
Resumo:
Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.
Resumo:
L’obbiettivo di questa tesi è realizzare il prototipo di un’applicazione client-server che permetta di utilizzare in remoto applicazioni in Virtual Reality, fornendo allo stesso tempo supporto alla multiutenza. L’applicazione in realtà virtuale dovrà girare sul server, dispositivo con capacità di calcolo notevolmente superiori rispetto a quelle del client. Più utenti dovranno avere la possibilità di connettersi contemporaneamente e condividere lo stesso spazio virtuale. Il client sarà, in questo caso, un’applicazione Android che si connetterà al server e avrà il compito di mostrare all'utente l’output dell’applicazione in Virtual Reality e allo stesso tempo ricevere l’input da inviare al server. Un altro obbiettivo durante lo sviluppo del prototipo è quello di realizzare una libreria che offra le funzionalità sopraelencate, facilmente integrabile in nuovi progetti o in progetti già esistenti. Utilizzando questa struttura client-server sarà possibile sviluppare applicazioni che permettano a più persone di condividere lo stesso spazio virtuale, ognuno dal proprio punto di vista, utilizzando visori e sistemi operativi diversi.
Resumo:
Dopo alcuni risultati preliminari di algebra commutativa, la tesi introduce e sviluppa lo studio del funtore di tensorizzazione e del funtore Hom, e dei loro derivati Tor e Ext su moduli generici e con esempi di calcolo su Z.
Resumo:
Lo scopo di questa tesi triennale è quello di fornire un'introduzione ad alcuni concetti della computazione quantistica e comprenderne i fenomeni fisici che ne stanno alla base, dall'idea astratta di qubit fino ai più recenti studi sui centri NV, passando attraverso appropriati strumenti matematici. Recentemente si è realizzato che l'uso delle proprietà della meccanica quantistica può migliorare drasticamente le velocità di calcolo. È quindi cresciuto l'interesse nel campo dell'informazione quantistica. Tra le principali difficoltà vi è il fenomeno della decoerenza, responsabile della distruzione degli stati di sovrapposizione quanto-meccanici. Studiamo la dinamica dei sistemi quantistici aperti, soffermandoci sugli aspetti della loro evoluzione rilevanti nel passaggio dal mondo quantico al classico. A tal fine, e per una migliore comprensione della decoerenza, ricaviamo l'equazione master cui deve obbedire la matrice di densità nel noto modello di Jaynes-Cummings per l'interazione ambiente-sistema. In particolare, descriviamo come un ristretto set di manipolazioni sul sistema ci permetta di proteggerlo dalla decoerenza e come tale tecnica, detta disaccoppiamento dinamico, si rivela un utile strumento per la realizzazione di gates quantistici nel caso dei qubit implementati sfruttando i cosiddetti centri NV del diamante.
Resumo:
Nella presente tesi si studia lo stato di deformazione di una strada non pavimentata, rinforzata con geotessile, indotto dal passaggio di carrelli semoventi SMPT. L’obiettivo è verificare che le deformazioni siano compatibili con i risultati provenienti dai metodi di calcolo analitici. Durante lo sviluppo ci si avvale di modelli 3-dimensionali del terreno creati ex-novo e di simulazioni alle differenze finite per quanto riguarda l’interazione tra carichi e sovrastruttura. Tale simulazione è stata condotta con il software FLAC3D. Si è simulato dapprima il comportamento della sovrastruttura non rinforzata sollecitata da: singolo asse e carrello a 4 assi. In secondo luogo, si è analizzato il modello del terreno rinforzato, nel quale si introduce una geogriglia a diverse profondità per valutare quella ottimale. Sono stati creati così tre modelli distinti nei quali il rinforzo è posizionato ad 1/3 dell’altezza di aggregato, a 2/3 ed all’interfaccia tra aggregato e primo strato del terreno naturale. Il risultato mostra che il posizionamento ottimale della geogriglia non è all’interfaccia come espresso dalle teorie in merito, ma a 2/3 dell’altezza dello strato di aggregato, dove viene permessa una maggiore deformazione ma un minor stato di sollecitazione del materiale di rinforzo. Infine si valuta in maniera marginale il caso del terreno rinforzato, dove l’altezza dello strato di aggregato viene calcolato con i metodi analitici di Giroud e Noiray (1980) e Giroud e Han (2004), dei quali viene in principio fornita una rigorosa esposizione teorica. In questi ultimi casi, i risultati non sono soddisfacenti. Infatti si è trovato che il raggiungimento del carico di rottura della geogriglia limita fortemente le deformazioni, rendendole così insufficienti per mobilitare le pressioni di contatto richieste. Concludendo si gettano le basi per futuri elaborati, consigliando alcune modifiche da apportare per perfezionare la modellistica dei casi rinforzati.
Resumo:
Lo sviluppo di tecnologie innovative nel campo delle telecomunicazioni, dei sensori e degli strumenti di calcolo, ha fatto sì che negli ultimi decenni sia stato possibile trovare soluzioni innovative a problemi tradizionali della medicina. Allo stato attuale è possibile ricorrere a dispositivi di monitoraggio di dimensioni molto contenute, che sono in grado di comunicare attraverso una rete di infrastrutture di comunicazione, fino a raggiungere la struttura ospedaliera. In questa tesi si è scelto di approfondire il ruolo della telemedicina nei casi di diabete e patologie cardiache, due fra i disturbi che maggiormente colpiscono la popolazione. Così facendo si osserva come la telemedicina possa rendersi utile in tutte le fasi del trattamento del disturbo: dalla prevenzione alla cura e alla riabilitazione, in maniera tale da perfezionare il rapporto classico fra paziente e specialista della medicina. Si eliminano barriere spaziali e di aggiungono una nuova gamma di servizi, tanto utili al medico quanto al paziente.
Resumo:
Questa tesi riguarda il problema della schedulazione degli interventi nel blocco operatorio di un presidio ospedaliero, noto anche come Operating Theatre Planning & Scheduling. Il blocco operatorio è la struttura che eroga servizi a più alto impatto sui costi di un presidio ospedaliero ed è legato ad attività ad alto rischio. E' quindi fondamentale gestire in modo ottimale questa risorsa. In questa tesi, si considera come caso studio l'applicazione reale di un presidio ospedaliero dell'Emilia Romagna con un orizzonte temporale di una settimana, ovvero la cosiddetta programmazione operativa. L'obiettivo è quello di ottenere un utilizzo efficiente del blocco operatorio, garantendo al contempo la priorità agli interventi più urgenti. Data la complessità del problema, vengono proposti algoritmi euristici che permettano di ottenere buone soluzioni in tempi di calcolo ridotti. Studi precedenti hanno infatti evidenziato la difficoltà di trovare soluzioni ottime al problema, mediante l'utilizzo di solver commerciali per modelli di Programmazione Lineare Intera, senza introdurre ipotesi semplificative. Sono stati elaborati tre algoritmi euristici costruttivi di tipo multi-start che permettono di generare soluzioni ammissibili con diverse caratteristiche. Gli algoritmi si differenziano principalmente per le modalità con cui collocano gli interventi nel tempo disponibile delle risorse (induction room, operating room, recovery room), cercando di migliorarne l’utilizzazione e dando priorità ai pazienti più urgenti. Gli algoritmi sono stati implementati utilizzando il linguaggio JAVA e sono stati testati su istanze realistiche fornite dal presidio ospedaliero. I risultati hanno evidenziato un alto grado di utilizzazione delle sale operatorie, un fattore molto rilevante per una ottimale gestione del blocco operatorio. E' stata, infine, svolta un'analisi di sensitività alla variabilità delle durate.
Resumo:
La seguente tesi si sviluppa in tre parti: un'introduzione alle simmetrie conformi e di scala, una parte centrale dedicata alle anomalie quantistiche ed una terza parte dedicata all'anomalia di traccia per fermioni. Nella seconda parte in particolare si introduce il metodo di calcolo alla Fujikawa e si discute la scelta di regolatori adeguati ed un metodo per ottenerli, si applicano poi questi metodi ai campi, scalare e vettoriale, per l'anomalia di traccia in spazio curvo. Nell'ultimo capitolo si calcolano le anomalie di traccia per un fermione di Dirac e per uno di Weyl; la motivazione per calcolare queste anomalie nasce dal fatto che recenti articoli hanno suggerito che possa emergere un termine immaginario proporzionale alle densità di Pontryagin nell'anomalia di Weyl. Noi non abbiamo trovato questo termine e il risultato è che l'anomalia di traccia risulta essere metà di quella per il caso di Dirac.
Resumo:
Oggetto di questa tesi è lo studio della qualità del servizio di trasporto erogato che condiziona la qualità percepita dall’utente, poiché spesso proprio a causa di un errato processo di pianificazione e gestione della rete, molte aziende non sono in grado di consolidare un alto livello di efficienza che permetta loro di attrarre e servire la crescente domanda. Per questo motivo, si è deciso di indagare sugli aspetti che determinano la qualità erogata e sui fattori che la influenzano, anche attraverso la definizione di alcuni indicatori rappresentativi del servizio erogato. L’area di studio considerata è stata quella urbana di Bologna, e sono state prese in esame due linee di ATC, la 19 e la 27, caratterizzate entrambe da una domanda di trasporto molto elevata. L’interesse è ricaduto in modo particolare sugli aspetti legati alla regolarità del servizio, ovvero al rispetto della cadenza programmata delle corse e alla puntualità, ossia il rispetto dell’orario programmato delle stesse. Proprio da questi due aspetti, infatti, dipende in larga misura la percezione della qualità che gli utenti hanno del servizio di trasporto collettivo. Lo studio è stato condotto sulla base di dati raccolti attraverso due campagne di rilevamento, una effettuata nel mese di maggio dell’anno 2008 e l’altra nel mese di settembre dello stesso anno. La scelta del periodo, della zona e delle modalità di rilevamento è strettamente connessa all’obiettivo prefissato. Il servizio è influenzato dalle caratteristiche del sistema di trasporto: sia da quelle legate alla domanda che da quelle legate all’offerta. Nel caso della domanda di trasporto si considera l’influenza sul servizio del numero di passeggeri saliti e del tempo di sosta alle fermate. Nel caso dell’offerta di trasporto si osservano soprattutto gli aspetti legati alla rete di trasporto su cui si muovono gli autobus, analizzando quindi i tempi di movimento e le velocità dei mezzi, per vedere come le caratteristiche dell’infrastruttura possano condizionare il servizio. A tale proposito è opportuno dire che, mentre i dati della prima analisi ci sono utili per lo studio dell’influenza del tempo di sosta sull’intertempo, nella seconda analisi si vuole cercare di effettuare ulteriori osservazioni sull’influenza del tempo di movimento sulla cadenza, prendendo in esame altri elementi, come ad esempio tratti di linea differenti rispetto al caso precedente. Un’attenzione particolare, inoltre, verrà riservata alla verifica del rispetto della cadenza, dalla quale scaturisce la definizione del livello di servizio per ciò che riguarda la regolarità. Per quest’ultima verrà, inoltre, determinato anche il LOS relativo alla puntualità. Collegato al problema del rispetto della cadenza è il fenomeno dell’accodamento: questo si verifica quando i mezzi di una stessa linea arrivano contemporaneamente ad una fermata uno dietro l’altro. L’accodamento ha, infatti, origine dal mancato rispetto della cadenza programmata tra i mezzi ed è un’evidente manifestazione del mal funzionamento di un servizio di trasporto. Verrà infine condotta un’analisi dei fattori che possono influenzare le prestazioni del servizio di trasporto pubblico, così da collocare i dati ottenuti dalle operazioni di rilevamento in un quadro più preciso, capace di sottolineare alcuni elementi di criticità e possibili rapporti di causalità.