410 resultados para sospensione progressiva curva rigidezza MATHEMATICA foglio di calcolo
Resumo:
Il seguente lavoro è uno studio preliminare motivato dalla possibilità di integrazione di un sistema ecografico portatile in un'apparecchiatura per Tecarterapia. Lo scopo è permettere al fisioterapista di dare una valutazione oggettiva dell'efficacia dei trattamenti erogati, mediante il calcolo di parametri oggettivi: il confronto tra questi consentirà il monitoraggio e la valutazione del follow-up. La Tecarterapia è particolarmente efficace nel trattamento precoce non chirurgico di tendinopatie e lesioni muscolari e per dimostrarlo sono stati sviluppati due algoritmi per il calcolo automatico di parametri caratterizzanti il tendine e il muscolo. Questi sono stati testatati su pazienti affetti da tendinopatia al tendine d'Achille e lesione ai muscoli flessori della coscia prima e dopo un ciclo di Tecar e i risultati ottenuti hanno rispecchiato le aspettative, permettendo di stabilire oggettivamente l'efficacia della terapia. Per permettere anche ad utenti non esperti in programmazione di utilizzare questi strumenti di calcolo, è stata elaborata, separatamente per le lesioni e le tendinopatie, un’ interfaccia grafica in Matlab.
Resumo:
L’oggetto di questa tesi di laurea è un intervento di recupero e riprogettazione di un edificio non completato, destinato a 24 alloggi di edilizia residenziale pubblica, situato a Rovigo. Questo è stato oggetto di una lunga ed articolata vicenda caratterizzata da continue interruzioni del cantiere, principalmente causate da una cattiva esecuzione dei lavori da parte dell’impresa costruttrice. Allo stato attuale è presente la sola struttura metallica assemblata sulle fondazioni in calcestruzzo armato; tutto il fabbricato risulta abbandonato e congelato da diversi anni dopo i primi collaudi che hanno stabilito la non idoneità del telaio in acciaio. L’obiettivo del progetto è dunque quello di recuperare le fondazioni esistenti e di riprogettare l’edificio in una chiave più attuale e sostenibile. E’ stato effettuato un sopralluogo per comprendere più da vicino le problematiche relative all’area di progetto, oltre ad un’attenta analisi delle documentazioni riguardanti il progetto originario in modo da correggere eventuali punti deboli. Le strategie non hanno tenuto conto dunque solamente di un’ottima efficienza energetica o di un’offerta di alloggi adeguata alla domanda della situazione abitativa attuale, ma anche di tutte le problematiche che sono derivate dalla cattiva gestione del progetto originario. Le scelte progettuali, infatti, sono state il risultato anche delle necessità di limitare tempi e costi di un intervento per il quale sono state sprecate fin troppe risorse, soprattutto economiche. La fase progettuale è stata affiancata dalla realizzazione di simulazioni effettuate tramite software di calcolo (Termolog EpiX 6 e DIALux evo) che hanno permesso di ottenere ottimi risultati per quanto riguarda prestazione energetica e comfort luminoso indoor.
Resumo:
I cardiomiociti derivanti da cellule staminali pluripotenti indotte (hiPSC-CMs) costituiscono un nuovo approccio per lo studio delle proprietà delle cellule cardiache sia degli individui sani che di quelli affetti da malattie ereditarie e possono rappresentare inoltre una piattaforma in vitro per la scoperta di nuovi farmaci e terapie rigenerative. Il grande impatto delle hiPSC-CMs nell’ambito della ricerca si deve soprattutto alle loro proprietà elettrofisiologiche: queste cellule non solo esprimono fenotipi genici e proprietà delle correnti ioniche tipiche delle cellule cardiache, ma sono anche in grado di riprodurre fenomeni aritmici, come le EAD, a seguito della somministrazione di farmaci. Grazie anche alla grande potenza di calcolo oggi disponibile è possibile supportare la pratica in vitro con modelli in silico, abbattendo sia i costi che i tempi richiesti dagli esperimenti in laboratorio. Lo scopo di questo lavoro è quello di simulare il comportamento delle hiPSC-CMs di tipo ventricolare in risposta alla somministrazione di farmaci che interagiscono con la corrente di potassio IKr, principale responsabile della ripolarizzazione cardiaca. L’assunzione di certi farmaci può comportare infatti una riduzione della IKr, con conseguente prolungamento della fase di ripolarizzazione del potenziale d’azione cardiaco. Questo meccanismo è causa dell’insorgenza della sindrome del QT lungo di tipo 2, che in casi estremi può degenerare in aritmie gravi. Ciò suggerisce che queste cellule rappresentano un importante strumento per la valutazione del rischio pro-aritmico che può essere facilitata da simulazioni in silico effettuate utilizzando modelli computazionali basati su dati fisiologici.
Resumo:
La nascita della Internet of Things, come conseguenza dell'aumento della capacità di calcolo e adozione di connettività in nuovi dispositivi, ha permesso l'apporto di nuove tecnologie negli oggetti di uso quotidiano e ha cambiano il modo in cui le persone utilizzano e interagiscono con questi oggetti. La Home Automation, da sempre orientata al controllo locale e remoto di apparecchiature domestiche, non ha mai raggiunto una grande diffusione per colpa del costo elevato, una controproducente chiusura rispetto ad altri sistemi e una certa difficoltà nella sua programmazione da parte dei possibili utenti. Le possibilità offerte dalla IoT e i limiti della Home Automation hanno suggerito lo sviluppo di un sistema in grado si superare queste limitazioni sfruttando le tecnologie più adatte a integrare Smart Object e sistemi, gli uni con gli altri, in maniera semplice e rapida. Il progetto e lo sviluppo di una soluzione reale di Home Automation basata su un impianto domotico commerciale ha permesso di dimostrare come strumenti opensource e tecnologie orientate alla IoT consentano, se opportunamente integrate, di migliorare sia la fruibilità dei sistemi domotici, attraverso la maggiore apertura verso altri sistemi, sia l'interazione con l'utente che sarà in grado di creare in modo semplice e diretto scenari di utilizzo sempre nuovi.
Resumo:
Il calore contenuto in profondità negli ammassi rocciosi può essere estratto attraverso un sistema geotermico che prevede l’inserimento di tubazioni in corrispondenza del rivestimento del tunnel, all'interno del quale circola un fluido termovettore che assorbe calore dalle pareti circostanti. Il caso di studio analizzato è la Galleria di Mules, un tunnel scavato in metodo tradizionale all'interno del Granito di Bressanone, che funge come unica finestra di accesso sul lato italiano alla Galleria di Base del Brennero (BBT). Essa si sviluppa in direzione ovest-est per una lunghezza pari circa a 1780 m. In fase di esercizio. Attraverso una caratterizzazione geologica e idrogeologica dell’area di interesse, prove di laboratorio su campioni e rilevazioni delle temperature all’interno della galleria, è stato possibile delineare un quadro geotermico dell’area di interesse. I dati raccolti hanno permesso di ricavare un modello 3D delle temperature dell’area e, attraverso un’apposita procedura di calcolo, quantificare il potenziale energetico estraibile dal tratto di galleria considerato. Sulla base dei risultati ottenuti, è stato realizzato uno schema dettagliato della disposizione del circuito sorgente, adattato sul progetto definitivo del rivestimento interno alla Galleria di Mules. In assenza di potenziali utenze termiche nelle vicinanze del portale di accesso, si è ipotizzato di destinare la risorsa geotermica ad una pavimentazione stradale dotata di sistema snow and ice melting. La pavimentazione permetterà il collegamento fra la strada SS12 e l’imbocco del tunnel. E’ stata effettuata una stima dei costi di investimento dell’intero sistema a pompa di calore e, sulla base del fabbisogno energetico dell’utenza considerata, sono stati valutati i costi di esercizio, confrontandoli con altre possibili soluzioni. Lo studio ha dimostrato la fattibilità tecnico-economica di soluzioni di questo tipo e si pone come primo passo per approfondimenti futuri.
Resumo:
In questo studio è stata effettuata una stima della riduzione della azione verticale sul pilastro e in particolare in corrispondenza delle connessioni, per varie tipologie strutturali, per effetto dell’azione sismica verticale. Si è pervenuti, nei diversi casi analizzati, una legge per il coefficiente di attrito dinamico, a partire dal coefficiente di attrito statico, tenendo conto della legge di riduzione dello sforzo assiale, da utilizzare per il calcolo della forza di attrito che si instaura nelle suddette condizioni dinamiche. A tal fine sono stati utilizzati diversi modelli che tengono conto delle caratteristiche geometriche, della lunghezza e della forma degli elementi strutturali oltre che delle varie condizioni di carico, luci massime e minime che possono raggiungere gli elementi orizzontali. Sono state pertanto effettuate, attraverso l’ utilizzo di software di calcolo agli elementi finiti, diverse tipologie di analisi che hanno permesso di effettuare le indagini necessarie sul problema oggetto di studio.
Resumo:
Nella presente Tesi è affrontata l’analisi sperimentale e teorica del comportamento di pareti in muratura rinforzate con FRCM e sollecitate da azioni di taglio fuori piano. Lo schema statico adottato per i campioni sperimentati consiste in uno schema appoggio-appoggio, mentre le forze esterne di taglio sono state applicate secondo uno schema di carico a quattro punti. Durante il corso della prova, i pannelli murari sono inoltre stati soggetti ad un carico di precompressione verticale costante, che simula l’effetto della presenza del solaio in un edificio in muratura. Dopo una descrizione teorica delle principali caratteristiche dei materiali compositi e dei loro costituenti, all’interno della Tesi sono richiamati alcuni studi scientifici relativi al comportamento fuori piano di elementi strutturali rinforzati con FRCM. In seguito vengono presentati i materiali impiegati per la campagna sperimentale e le prove di caratterizzazione meccanica eseguite. Vengono poi riportati i risultati sperimentali delle prove a taglio fuori piano in termini di spostamenti, di deformazioni e di scorrimenti, affrontando infine un confronto tra i risultati ottenuti per i campioni esaminati e riportando alcune considerazioni circa la strumentazione impiegata. L’ultima parte della Tesi è dedicata all’analisi teorica delle pareti. Viene proposto un modello teorico per stimare la resistenza fornita dai muri rinforzati, ipotizzando tre possibili modalità di rottura: rottura a trazione della fibra, rottura per distacco tra FRCM e supporto in muratura e rottura per delaminazione interna. Infine, viene riportata la modellazione agli elementi finiti svolta mediante il codice di calcolo MidasFea, che consente di attribuire ai materiali legami costitutivi adeguati per la modellazione di strutture in muratura, cogliendone il comportamento non lineare e il progressivo danneggiamento.
Resumo:
L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.
Resumo:
L’oggetto di studio della tesi è centrato sulla progettazione di pavimentazioni ad alta resistenza nell’ambito dei porti commerciali. Nel capitolo 1, viene effettuata una descrizione delle caratteristiche principali dei porti, proseguendo con l’esposizione dei principi organizzativi dei porti commerciali. In particolar modo, vengono illustrate le operazioni che si registrano in un terminal container e le proprietà dei diversi mezzi speciali che vi operano. Nel capitolo successivo, si procede con la definizione dei materiali più comunemente utilizzati nella realizzazione delle pavimentazioni di un porto e quindi con la descrizione delle principali tipologie di soluzioni adottate nella progettazione. Successivamente, nel capitolo 3, vengono enunciati i principali metodi di calcolo per la progettazione di una pavimentazione portuale e si prosegue con l’approfondimento del metodo descritto dal manuale pubblicato dalla British Ports Association (BPA):”The structural design of heavy duty pavements for ports and other industries”. Infine, nell’ultimo capitolo, viene illustrato il processo di progettazione in base al metodo BPA, mediante lo svolgimento di un esempio di calcolo della pavimentazione.
Resumo:
In questa tesi si affronta lo studio di piastre isotrope e laminate mediante metodo GDQ e si confrontano i risultati con quelli ottenuti, per le stesse tipologie di piastre, mediante metodo FEM. Lo scopo del lavoro e quello di certificare la maggior efficienza del software di calcolo DiQuMASPAB, basato su teorie in forma forte, rispetto ai tradizionali software di calcolo agli elementi finiti attualmente in commercio. Il confronto ha come obiettivo quello di evidenziare i punti deboli dal punto di vista dell'approssimazione delle soluzioni e del costo computazonale.
Resumo:
Analisi della vulnerabilità sismica degli aggregati edilizi del centro storico di Castelfranco Emilia, contraddistinti dal numero 5,6,7,8,13,14,15,16. Utilizzo del metodo di analisi speditivo ed analitico, con due modalità distinte di calcolo degli indici. Analisi della vulnerabilità delle vie del centro storico di Castelfranco Emilia, in particolare Corso Martiri, Via ripa Superiore e Inferiore, Via Zanasi-P.zza Garibaldi, Via Bertelli, Via Picciolio-Fasani, Via Zanolini-Del Bagno, via Dalla Vacca-Morandi. Definizione dell'indice di vulnerabilità viaria. Classifica di vulnerabilità degli aggregati e delle vie.
Resumo:
Il presente elaborato ha come oggetto l’analisi e lo studio delle teorie di calcolo degli stati tensionali e deformativi delle lastre in calcestruzzo e dei metodi di progettazione delle pavimentazioni rigide aeroportuali, le quali sono state applicate al caso specifico degli interventi di riqualifica e adeguamento delle infrastrutture di volo dell’Aeroporto “Marco Polo” di Tessera – Venezia. Sono state descritte le principali fasi realizzative della pavimentazione rigida dell’Apron Sud del suddetto aeroporto ed analizzati i risultati delle prove di caratterizzazione del calcestruzzo, in fase preliminare e in corso d’opera, e delle prove di valutazione della capacità portante della sovrastruttura ultimata.
Resumo:
Negli ultimi anni il crescere della capacità di calcolo dei dispositivi e il diminuire delle loro dimensioni ha permesso di far nascere idee innovative e di esplorare più in dettaglio alcuni settori. Uno di questi è sicuramente quello della realtà aumentata (Augmented reality), infatti, la discussione su questo argomento nasce già negli anni 40 del novecento, ma, per mancanza di mezzi tecnologici adeguati, solo ora si iniziano a realizzare le prime applicazioni che si basano su questa idea e il grande pubblico inizia ad interessarsi all'argomento. La costruzione di applicazioni di realtà aumentata, al momento, è basata sull'utilizzo di alcuni framework che mettono a disposizione dello sviluppatore alcune funzioni molto comuni in questi software, come il tracking di marker e l'utilizzo di bottoni virtuali. Questi strumenti, seppur comodi, non garantiscono sempre la buona progettazione dell'applicazione e tendono a unire insieme parti di logica applicativa e di grafica. Per questo motivo, anche nella ricerca, si stanno cercando di studiare dei metodi in grado di permettere una divisione ottimale dei compiti in modo da ottenere un software riusabile e facilmente mantenibile, ma che permetta anche di sfruttare appieno le potenzialità dell'AR attraverso, per esempio, sistemi distribuiti. Un framework concettuale che rientra in questa categoria è sicuramente quello degli Augmented Worlds, mondi virtuali collegati a quello fisico che ne incrementano le caratteristiche e le possibilità tramite la presenza di entità aumentate. La tesi, quindi, si propone di sviluppare un prototipo di un framework con le caratteristiche sopra citate di estendibilità, utilizzando le piattaforme in questo momento a disposizione e ispirandosi alla visione degli Augmented Worlds.
Resumo:
Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.
Resumo:
Il presente lavoro di tesi analizza un tratto del fiume Secchia, prossimo alla località di Veggia (Sassuolo), al fine di determinare la variazione del livello idrometrico in funzione di diverse portate associate a tempi di ritorno a breve e lungo termine. Vengono dapprima introdotti il concetto di rischio idraulico ed i relativi riferimenti normativi che lo disciplinano, unitamente ai piani di gestione e ai possibili interventi di protezione fluviale. Si introduce successivamente il codice di calcolo HEC-RAS, che viene impiegato nel presente studio per simulare l’andamento dei profili di moto permanente, nel caso in cui il fiume sia o meno interessato dalla presenza di un ponte. In entrambi i casi vengono poi discusse le variazioni dei livelli idrometrici per portate con tempi di ritorno di 20, 100 e 200 anni: si osserva che l’asta fluviale è a rischio nella zona a valle dello studio, mentre nella zona dove è ubicato il ponte l’aumentare dei livelli idrometrici non mette in crisi la struttura. A seguire vengono presentate le opere di mitigazione, destinate alla protezione dell’alveo e dell’ambiente circostante. Poi, si mostrano le opere di mitigazione, essi funzionano di diminuire i rischi dalla diversa classificazione di opere.