925 resultados para sospensione progressiva curva rigidezza MATHEMATICA foglio di calcolo
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
La dissertazione ha riguardato l’analisi di sostenibilità di un sistema agronomico per la produzione di olio vegetale a fini energetici in terreni resi marginali dall’infestazione di nematodi. Il processo indagato ha previsto il sovescio di una coltura con proprietà biofumiganti (brassicacea) coltivata in precessione alla specie oleosa (soia e tabacco) al fine di contrastare il proliferare dell’infestazione nel terreno. Tale sistema agronomico è stato confrontato attraverso una analisi di ciclo di vita (LCA) ad uno scenario di coltivazione della stessa specie oleosa senza precessione di brassica ma con l’utilizzo di 1-3-dicloropropene come sistema di lotta ai nematodi. Allo scopo di completare l’analisi LCA con una valutazione dell’impatto sull’uso del suolo (Land use Impact) generato dai due scenari a confronto, sono stati costruiti due modelli nel software per il calcolo del Soil Conditioning Index (SCI), un indicatore quali-quantitativo della qualità del terreno definito dal Dipartimento per l’Agricoltura degli Stati Uniti d’America (USDA).
Resumo:
La proteinuria è un marker di danno renale nel cane. L’obiettivo dello studio è di valutare la capacità del dipstick urinario e dell’UPC di diagnosticare precocemente l’albuminuria nel cane. Sono stati raccolti 868 campioni di urina, con sedimento spento e assenza di ematuria, nell’Ospedale Didattico Veterinario della Facoltà di Medicina Veterinaria di Bologna. Per 550 campioni è stata effettuata l’analisi delle urine, la misurazione dell’UPC e dell’UAC, mentre UPC e UAC sono stati misurati in tutti gli 868 campioni. I campioni di urina sono stati analizzati con il metodo dipstick mediante lettura automatizzata. Utilizzando come valore di riferimento l’UAC è stata valutata l’accuratezza diagnostica del dipstick urinario e dell’UPC. L’intervallo di riferimento dell’UAC (0-0,024) è stato determinato utilizzando 60 cani sani. I dati raccolti sono stati classificati utilizzando differenti cut-off per il peso specifico urinario (1012 o 1030), per la proteinuria al dipstick (30 o 100 mg/dl), per l’UPC (0,2) e per l’UAC (0,024). Sono stati valutati l’agreement diagnostico e la correlazione di Spearman tra dipstick, UPC e UAC. E’ stata stimata l’accuratezza diagnostica misurando l’area al di sotto della curva di ROC nell’analisi dell’UAC. Il livello di significatività è stato definito per p < 0,05. Indipendentemente dal peso specifico urinario, l’agreement diagnostico tra dipstick, UPC e UAC è risultato forte (k=0,62 e k=0,61, rispettivamente; p<0,001) con valori di dipstick ≥30 mg/dl, debole (k=0,27 e k=0,26, rispettivamente; p<0,001) con valori di dipstick ≥100 mg/dl. L’accuratezza diagnostica del dipstick messa a confronto con UPC e con UAC è molto buona (AUC 0,84 e 0,84, rispettivamente; p<0,001) e i risultati negativi al dipstick presentano il 100% di sensitività. UPC e UAC sono fortemente correlate (r=0,90; p<0,001). Mettendo a confronto UPC e UAC, l’accuratezza diagnostica è risultata eccellente (AUC 0,94; p<0,001), con massima sensitività e specificità per UPC≥0.3.
Resumo:
Studio su un compressore assiale pluristadio con elevato rapporto di compressione, circa 46, la cui mandata è collegata ad un motore Diesel aeronautico ad elevate prestazioni. Lo studio è stato svolto, mediante l'utilizzo del software AEDsys, sia dal punto di vista fluidodinamico (calcolo numero di stadi, rapporti di compressione per stadio, triangoli di velocità), sia dal punto di vista dimensionale (dimensionamento di massima, lunghezza, dimensione radiale).
Resumo:
In questa trattazione è analizzato il tema della ventilazione negli ambienti indoor. Oggi questo argomento è di notevole interesse a causa di una serie di fattori molto importanti: - L’uomo trascorre la maggior parte del tempo in spazi chiusi - L’Organizzazione Mondiale della Sanità sottolinea come molte malattie, tra cui asma e allergie, derivino dall’eccesso di umidità interna e dalla presenza di muffe - Gli stili di vita lavorativi sono differenti rispetto al passato: non c’è più tempo per aprire adeguatamente le finestre - L’aria interna è da 10 a 100 volte più inquinata di quella esterna - Negli ambienti i materiali di arredo e i prodotti per la pulizia possono emettere sostanze nocive - L’infiltrazione dai serramenti, con la costruzione di edifici sempre più ermetici e a bassa permeabilità all’aria, risulta insufficiente per garantire un corretto ricambio - Le nuove leggi in materia di risparmio energetico impongono limiti sul fabbisogno energetico di riscaldamento, in parte dovuto ai processi di ventilazione. Vengono quindi analizzati i due sistemi di ventilazione possibili ad oggi in campo residenziale: la ventilazione naturale e la ventilazione meccanica controllata (VMC) applicati poi ad un edificio nel quartiere di Corticella (BO). Sono stati posti poi a confronto i due sistemi nel calcolo dei fabbisogni energetici per ventilazione e nelle relative incidenze rispetto al termine legato allo scambio termico per trasmissione. Viene proposta infine un'ipotesi di realizzazione di impianto di ventilazione meccanica integrato con una riqualificazione architettonica completa dell'edificio per il raggiungimento di elevate prestazioni energetiche.
Resumo:
Descrizione della progettazione, costruzione e validazione della modalità automatica di esposizione negli esami 2D, disponibili presso il dispositivo radiografico top di gamma dell'azienda Cefla SC.
Resumo:
Progetto SCATh allo ZHAW. Il dipartimento di meccatronica (IMS) dell'Università di scienze applicate di Winterthur (ZHAW), ha partecipato attivamente al progetto SCATh concentrandosi principalmente sullo sviluppo, il condizionamento, e la modellizzazione di un sensore di flusso che fosse facilmente applicabile e di piccole dimensioni in modo da poter essere applicato su catetere e permettere la misura diretta della grandezza fisica sopracitata. All'interno della struttura universitaria è stato possibile inizialmente analizzare il fenomeno che sta alla base del sensore, utilizzando conoscenze già presenti in dispositivi quali l'anemometria a filo caldo, che sfruttano lo scambio di calore tra sensore (riscaldato) e fluido sanguigno. La realizzazione del circuito di condizionamento è stato il passo successivo, necessario sia per mantenere il sensore ad una temperatura voluta e sia per leggere i dati di flusso mediante una tensione in uscita. Una volta effettuato ciò si è proceduto alla calibrazione del sensore (relazione tra flusso e tensione) ed infine alla trasposizione del circuito su LTspice. Nell' Introduzione (Capitolo 1) verranno presentati tutti i concetti preliminari, ossia i principi fisici, necessari a comprendere il funzionamento del sensore. Dunque dopo una breve definizione di flusso (riferito a liquidi) saranno presentati i principi di trasmissione del calore con particolare attenzione riservata alla convezione. Infine, parte dello stesso capitolo sarà dedicata ad una descrizione anatomica dell'aorta e dei rami collaterali. Successivamente nel secondo capitolo verrà analizzato, sia dal punto di vista statico che dal punto di vista dinamico, il circuito di condizionamento, ossia la circuiteria che sta a valle del sensore. Questo circuito permette al sensore di acquisire talune caratteristiche fondamentali per la misura di velocità ed inoltre consente la trasduzione da variabile fisica (velocità del flusso) a variabile elettrica (Tensione). In questo capitolo verrà inoltre fornita una descrizione delle relazioni matematiche fondamentali che legano la temperatura del sensore, la velocità del flusso e la tensione in uscita. Una descrizione del set sperimentale utilizzato per raccogliere dati sarà presente nel terzo capitolo. Qui si troverà una descrizione di tutte le attrezzature utilizzate al fine di poter testare il funzionamento del sensore. Nel quarto capitolo verranno visualizzati i risultati ottenuti facendo riferimento ai test effettuati prima su acqua e successivamente su sangue (suino). Verrà inoltre trovata la curva di calibrazione che permetterà di trovare una relazione biunivoca tra velocità del flusso e tensione in uscita. Infine, nel quinto capitolo verrà proposto un modello del circuito di condizionamento ottenuto mediante LTspice. Mediante il modello sarà possibile simulare un flusso di una velocità voluta e seguire l'andamento della tensione e della temperatura del sensore.
Resumo:
Oltre alla progressiva perdita dei linfociti T CD4, i pazienti HIV-infetti presentano diverse citopenie periferiche. In particolare l’anemia si riscontra nel 10% dei pazienti asintomatici e nel 92% di quelli con AIDS e la terapia cART non è in grado di risolvere tale problematica. I meccanismi patogenetici alla base di questa citopenia si ritiene che possano riguardare la deregolazione citochinica, il danno alle HPCs, alle cellule in differenziamento e alle cellule stromali. Le cellule progenitrici ematopoietiche CD34+, dopo essere state separate da sangue cordonale e differenziate verso la linea eritroide, sono state trattate con HIV-1 attivo, inattivato al calore e gp120. In prima istanza è stata messa in luce la mancata suscettibilità all’infezione e l’aumento dell’ apoptosi dovuto al legame gp120-CD4/CXCR4 e mediato dal TGF-β1 nelle cellule progenitrici indifferenziate. L’aspetto innovativo di questo studio però si evidenzia esaminando l’effetto di gp120 durante il differenziamento verso la filiera eritrocitaria. Sono stati utilizzati due protocolli sperimentali: nel primo le cellule sono inizialmente trattate per 24 ore con gp120 (o con HIV-1 inattivato al calore) e poi indotte in differenziamento, nel secondo vengono prima differenziate e poi trattate con gp120. Il “priming” negativo determina una apoptosi gp120-indotta molto marcata già dopo 48 ore dal trattamento ed una riduzione del differenziamento. Se tali cellule vengono invece prima differenziate per 24 ore e poi trattate con gp120, nei primi 5 giorni dal trattamento, è presente un aumento di proliferazione e differenziamento, a cui segue un brusco arresto che culmina con una apoptosi molto marcata (anch’essa dipendente dal legame gp120-CD4 e CXCR4 e TGF-β1 dipendente) e con una drastica riduzione del differenziamento. L’insieme dei risultati ha permesso di definire in modo consistente la complessità della genesi dell’anemia in questi pazienti e di poter suggerire nuovi target terapeutici in questi soggetti, già sottoposti a cART.
Resumo:
In questo elaborato è stata trattata la caratterizzazione tramite simulazioni e prove in laboratorio di un circuito in grado di estrarre e accumulare energia elettrica, la quale viene generata da vibrazioni meccaniche tramite l'uso di dispositivi piezoelettrici. Partendo da una tipologia di circuito già esistente è stata studiata una variante nel sistema di conversione dell'energia, in questo caso il convertitore implementato è un convertitore di tipo flyback. Dopo aver studiato il circuito in dettaglio, è stata realizzata una prima simulazione circuitale mediante software Ltspice. Sono stati quindi analizzati gli andamenti delle tensioni di uscita e di ingresso durante il processo di carica della capacità, applicando in ingresso differenti tensioni. Infine i dati ottenuti sono stati elaborati in un foglio elettronico per poter ricavare l'andamento del rendimento.
Resumo:
Microparticelle a base di complessi polielettrolitici di Chitosano/Pectina per il rilascio nasale di Tacrina cloridrato. Lo scopo di questo studio è stata la ricerca di nuove formulazioni solide per la somministrazione nasale di Tacrina cloridrato allo scopo di ridurre l’eccessivo effetto di primo passaggio epatico ed aumentarne la biodisponibilità a livello del Sistema Nervoso Centrale. La Tacrina è stata incapsulata in microparticelle mucoadesive a base di complessi elettrolitici di chitosano e pectina. Le microparticelle sono state preparate mediante due diversi approcci tecnologici (spray-drying e spray-drying/liofilizzazione) e analizzate in termini di caratteristiche dimensionali, morfologiche e chimico-fisiche. Nanoparticelle di Chitosano reticolate con Sodio Cromoglicato per il trattamento della rinite allergica. Il Sodio Cromoglicato è uno dei farmaci utilizzati per il trattamento della rinite allergica. Come noto, la clearance mucociliare provoca una rapida rimozione dei farmaci in soluzione dalla cavità nasale, aumentando così il numero di somministrazioni giornaliere e, di conseguenza, riducendo la compliance del paziente. Per ovviare a tale problema, si è pensato di includere il sodio cromoglicato in nanoparticelle di chitosano, un polimero capace di aderire alla mucosa nasale, prolungare il contatto della formulazione con il sito di applicazione e ridurre il numero di somministrazioni giornaliere. Le nanoparticelle ottenute sono state caratterizzate in termini di dimensioni, resa, efficienza di incapsulazione e caricamento del farmaco, potenziale zeta e caratteristiche mucoadesive. Analisi quantitativa di Budesonide amorfa tramite calorimetria a scansione differenziale. È stato sviluppato un nuovo metodo quantitativo allo stato solido basato sulla Calorimetria a Scansione Differenziale (DSC) in grado di quantificare in modo selettivo e accurato la quantità di Budesonide amorfa presente in una miscela solida. Durante lo sviluppo del metodo sono stati affrontati problemi relativi alla convalida di metodi analitici su campioni solidi quali la miscelazione di polveri solide per la preparazione di miscele standard e il calcolo della precisione.
Resumo:
L'elaborato introduce i concetti di Big Data, Cloud Computing e le tipologie di paradigmi basati sul calcolo parallelo. Trasformando questi concetti in pratica tramite un caso di studio sui Big Data. Nell'elaborato si spiega l'architettura proposta per l'elaborazione di report in formato pdf. Analaizando in fine i risultati ottenuti.
Resumo:
A causa delle complesse problematiche ambientali e in accordo con gli obiettivi della legislazione internazionale e comunitaria, le aziende sempre più frequentemente adottano sistemi di gestione per miglioramento continuo delle proprie prestazioni ambientali. La tesi si pone come obiettivo l’analisi dell’efficienza energetica di una grande azienda del settore alimentare: sono state valutate le prestazioni in relazione agli impianti di produzione di energia e i consumi di energia dei singoli reparti di lavorazione e impianti; per ogni reparto sono stati inoltre analizzati dati e indicatori di tipo generale e puntuale, sulla base delle indicazioni riportate nella norma CEI EN ISO 50001: 2011. I risultati mostrano che i reparti di produzione energetica operano in assetto di Cogenerazione ad Alto Rendimento e che negli ultimi due anni si è registrata una riduzione delle emissioni di CO2 rispetto ai MWh prodotti; dal 2008 al 2013 si è assistito ad un trend di aumento dei consumi di energia elettrica rispetto ai prodotti realizzati, a differenza dei consumi di energia termica. Infine sulla base delle priorità di intervento individuate, è stato creato un piano d’azione teso al miglioramento delle performance energetiche. Inoltre la tesi si pone l’obiettivo di creare e applicare un metodo per calcolare la significatività degli aspetti ambientali dell’azienda, al fine di valutare gli impatti associati, in modo da permetterne una classificazione e da individuare le priorità di intervento per il miglioramento delle performance ambientali, in accordo con la norma UNI EN ISO 14001: 2004. Il metodo è stato progettato sulla base di dati aziendali e in modo da garantire oggettività, modulabilità e ripetibilità nella maggiore misura possibile; tale metodo è stato applicato ad un reparto di lavorazione e ha permesso di classificare gli aspetti ambientali, individuando le priorità di intervento, quali consumi idrici ed energetici.
Resumo:
Il suolo è soggetto all’attacco di svariati contaminanti rilasciati nell’ambiente da parte dell’uomo, fra questi troviamo i metalli pesanti. Alcuni metalli pesanti risultano tossici per organismi animali e vegetali se superano certe soglie di concentrazione. Nei suoli i metalli pesanti si trovano sia per cause naturali che antropiche. La fonte naturale dei metalli è legata alla struttura, composizione mineralogica, granulometrica dei sedimenti, e al grado di alterazione dovuta ai vari processi pedogenetici da cui è nato il suolo. In questo lavoro di tesi ho realizzato un campionamento che fosse rappresentativo dell’area presa in esame. In base alle geologia della zona, sono state individuate 32 stazioni dove è stata effettuata la perforazione, ottenendo un totale di 58 campioni. Lo scopo di questa tesi consiste nella determinazione e caratterizzazione cartografica del contenuto dei metalli pesanti nei suoli posti a ovest di Mantova. Per ogni campione è stata eseguita l’analisi per la determinazione del contenuto totale degli elementi maggiori e di quelli in traccia tramite fluorescenza a raggi X (XRF) ,il calcolo della LOI. Dai dati ottenuti dall’analisi XRF è stato applicato l’indice di geoaccumulo, il quale ha fornito il livello di arricchimento superficiale per Cromo, Nichel, Rame, Zinco, Piombo, Arsenico e Vanadio, permettendo di effettuare una stima della contaminazione puntiforme dell’area. Lo studio si è concluso con la realizzazione di mappe di concentrazione di metalli pesanti. La creazione di mappe pedogeochimiche diviene sempre più importante per una completa gestione territoriale ed ambientale.
Resumo:
Il mercato agroalimentare sta conoscendo, soprattutto negli ultimi anni, una evoluzione sia dal punto di vista normativo sia legato alla crescente richiesta da parte dell’opinione pubblica di caratteristiche di trasparenza, tracciabilità e sostenibilità ambientale, economica e sociale. La sostenibilità della Food Supply Chain rappresenta una problematica di grande interesse in termini di ricadute di impatto ambientale e depauperamento delle risorse. L’obiettivo di fornire strumenti decisionali utili per tutti gli operatori della Food Supply Chain ha comportato lo sviluppo di specifiche metodologie e di supporto alle decisioni. L'introduzione di una maggiore integrazione tra gli attori coinvolti nella FSC può portare a migliorare la sostenibilità dei sistemi alimentari. Nel presente lavoro è stato preso in considerazione un caso concreto in cui si è analizzata la filiera dei prodotti ortofrutticoli afferenti al centro di distribuzione di una catena della GDO, con un focus sui prodotti trattati e destinati all’area della provincia di Ravenna. La mappatura dei flussi di provenienza e destinazione delle merci ha permesso di analizzare strutturalmente i canali dei fornitori. Le informazioni acquisite sono state implementate su un database per consentirne la modellizzazione e l’analisi quantitativa dei flussi di prodotto ortofrutticolo. I dati sono stai elaborati attraverso l’uso della piattaforma software che ha collocato nello spazio i vari nodi logistici in modo da calcolarne le distanze reciproche e pianificare gli itinerari di viaggio. In questo modo è stato possibile simulare ogni singola spedizione a partire dall’aggregazione della domanda alle singole missioni di consegna, tenendo in considerazione i mezzi di trasporto selezionati. La scelta di un particolare tipo di veicolo, la sua velocità, la capacità massima del mezzo in termini di kg e m3, ha determinato il numero di spedizioni. Su queste basi è stato possibile eseguire il calcolo dell’impatto ambientale della distribuzione logistica e formulare quindi ipotesi di sviluppo futuro.
Resumo:
Negli ultimi cinque anni, l’Emilia Romagna è stata interessata da 83 fenomeni temporaleschi, che hanno causato allagamenti, smottamenti e anche la perdita di vite umane a Sala Baganza l’11 giugno 2011 e a Rimini il 24 giugno 2013. Nonostante questi fenomeni siano protagonisti di eventi calamitosi, la loro previsione rimane ancora complessa poiché sono eventi localizzati, brevi e molto intesi. Il progetto di Tesi si inserisce in questo contesto e tratta due tematiche principali: la valutazione, quantitativa, della variazione di frequenza degli eventi intensi negli ultimi 18 anni (1995-2012), in relazione ad un periodo storico di riferimento, compreso tra il 1935 ed il 1989 e il confronto tra l’andamento spaziale delle precipitazioni convettive, ottenuto dalle mappe di cumulata di precipitazione oraria dei radar meteorologici e quello ottenuto mediante due tecniche di interpolazione spaziale deterministiche in funzione dei dati pluviometrici rilevati al suolo: Poligoni di Voronoi ed Inverse Distance Weighting (IDW). Si sono ottenuti risultati interessanti nella valutazione delle variazioni dei regimi di frequenza, che hanno dimostrato come questa sembrerebbe in atto per eventi di precipitazione di durata superiore a quella oraria, senza una direzione univoca di cambiamento. Inoltre, dal confronto degli andamenti spaziali delle precipitazioni, è risultato che le tecniche di interpolazione deterministiche non riescono a riprodurre la spazialità della precipitazione rappresentata dal radar meteorologico e che ogni cella temporalesca presenta un comportamento differente dalle altre, perciò non è ancora possibile individuare una curva caratteristica per i fenomeni convettivi. L’approfondimento e il proseguimento di questo ultimo studio potranno portare all’elaborazione di un modello che, applicato alle previsioni di Nowcasting, permetta di valutare le altezze di precipitazione areale, associate a delle celle convettive in formazione e stabilire la frequenza caratteristica dell’evento meteorico in atto a scala spaziale, fornendo indicazioni in tempo reale che possono essere impiegate nelle attività di Protezione Civile.