495 resultados para Hoberman strutture deployable


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Valutazione di metori per la progettazione di isolatori da ponte mediante DDBD

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio affrontato riguarda la tecnica della ristilatura armata dei giunti, quale metodologia di intervento atta a ripristinare la resistenza della muratura, depauperata dalla continua azione esercitata dal peso proprio delle strutture massive. La presenza di forze di compressione ha causato la creazione di fessure diffuse su tutta la muratura, che ha danneggiato oltre che la vita stessa dell’opera e quindi la sicurezza delle persone, anche l’aspetto architettonico come fonte di bellezza e ricordo di antiche civiltà. In questa ottica si inserisce la Tecnica di Repointing perchè riesca a soddisfare i requisiti richiesti di autenticità strutturale, durabilità, compatibilità e bassa invasività dell'intervento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo fondamentale è di investigare l’effetto di differenti distribuzioni delle proprietà di dissipatori fluido viscosi non lineari lungo l’altezza delle strutture per il retrofit di telai in cemento armato esistenti. Le differenti distribuzioni sono calcolate sulla base dello stesso smorzamento supplementare. Nella fase di progetto si è confrontato la somma dei coefficienti di distribuzione in modo da valutare la loro efficacia. I risultati di questa fase sono poi controllati attraverso estensive analisi dinamiche non lineari, in termini di spostamenti di piano, spostamenti d’interpiano e forze nei dissipatori, considerando la non linearità della struttura e dei dissipatori. I casi di studio sono telai bidimensionali in cemento armato, caratterizzato da un differente numero di piani (3, 6 e 9 piani) e anche da differenti proprietà in termini di regolarità in elevazione. Un altro proposito è quindi investigare l’effetto della distribuzione verticale dei dissipatori per telai regolari e irregolari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Influenza della deformabilità di piano in analisi non lineari di edifici in C.A.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato di tesi si propone di indicare due esempi di strutture in grado di misurare con una certa precisione i coefficienti di attrito che agiscono su un giunto filettato distinguendoli tra coefficiente di attrito nel sottotesta della vite e coefficiente di attrito sul filetto. I macchinari ideati saranno anche in grado di misurare la forza di precarico applicata e permetteranno l’analisi dei segni d’usura attorno ai fori che ospiteranno le viti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maggior parte dei moderni dispositivi e macchinari, sia ad uso civile che industriale, utilizzano sistemi elettronici che ne supervisionano e ne controllano il funzionamento. All’ interno di questi apparati è quasi certamente impiegato un sistema di controllo digitale che svolge, anche grazie alle potenzialità oggi raggiunte, compiti che fino a non troppi anni or sono erano dominio dell’ elettronica analogica, si pensi ad esempio ai DSP (Digital Signal Processor) oggi impiegati nei sistemi di telecomunicazione. Nonostante l'elevata potenza di calcolo raggiunta dagli odierni microprocessori/microcontrollori/DSP dedicati alle applicazioni embedded, quando è necessario eseguire elaborazioni complesse, time-critical, dovendo razionalizzare e ottimizzare le risorse a disposizione, come ad esempio spazio consumo e costi, la scelta ricade inevitabilmente sui dispositivi FPGA. I dispositivi FPGA, acronimo di Field Programmable Gate Array, sono circuiti integrati a larga scala d’integrazione (VLSI, Very Large Scale of Integration) che possono essere configurati via software dopo la produzione. Si differenziano dai microprocessori poiché essi non eseguono un software, scritto ad esempio in linguaggio assembly oppure in linguaggio C. Sono invece dotati di risorse hardware generiche e configurabili (denominate Configurable Logic Block oppure Logic Array Block, a seconda del produttore del dispositivo) che per mezzo di un opportuno linguaggio, detto di descrizione hardware (HDL, Hardware Description Language) vengono interconnesse in modo da costituire circuiti logici digitali. In questo modo, è possibile far assumere a questi dispositivi funzionalità logiche qualsiasi, non previste in origine dal progettista del circuito integrato ma realizzabili grazie alle strutture programmabili in esso presenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La telemedicina è uno strumento in grado fornire assistenza ad un paziente o monitorarne le condizioni di salute, impiegando dispositivi di telecomunicazione avanzati i quali rendono possibile la trasmissione a distanza di informazioni mediche dal paziente alla struttura sanitaria o viceversa. Questo elaborato si propone di illustrare come la telemedicina sia utilizzata nel trattamento dello scompenso cardiaco a prescindere dalla distanza tra le strutture sanitarie e il luogo di residenza del malato ottenendo risultati incoraggianti sia dal punto di vista del quadro di salute psico-fisico dei pazienti sia dal punto di vista economico per il Sistema Sanitario Nazionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'exchange bias, fenomeno legato allo spostamento del ciclo di isteresi lungo l'asse del campo magnetico, è osservato nei materiali ferromagnetici(FM)-antiferromagnetici(AFM) accoppiati per scambio. Il suo studio, soprattutto nelle nanostrutture, è interessante sia da un punto di vista fenomenologico sia per ragioni tecnologiche. In campo teorico, la riduzione delle dimensioni laterali nei sistemi FM-AFM può portare a sostanziali cambiamenti nell'entità dello spostamento del ciclo e nella coercitività. Da un punto di vista tecnologico, lo studio del fenomeno di exchange bias è incentivato dal grande sviluppo dello storage magnetico e della spintronica; le testine di lettura sono tipicamente composte da valvole di spin o strutture a giunzione tunnel, nelle quali i bistrati FM-AFM accoppiati per scambio costituiscono una parte essenziale. Inoltre, è stato recentemente dimostrato che le interazioni di scambio FM-AFM possono essere usate per migliorare la stabilità dei mezzi di registrazione magnetica. Questo lavoro di tesi riporta lo studio del fenomeno di exchange bias in film sottili di IrMn/NiFe ed in dots di uguale composizione ma con diverse dimensioni (1000, 500 e 300nm), allo scopo di comprendere come il confinamento spaziale influenzi il meccanismo di accoppiamento di scambio e la sua evoluzione magnetotermica. I campioni sono stati preparati mediante litografia a fascio di elettroni e dc-magnetron sputtering e caratterizzati strutturalmente attraverso tecniche di microscopia elettronica. Lo studio delle proprietà magnetiche è stato realizzato mediante magnetometria ad effetto Kerr magneto-ottico, tecnica molto efficace per indagini su film sottili e nanostrutture, di cui la tesi riporta un'ampia trattazione. Infine, i risultati sperimentali sono stati affiancati a simulazioni micromagnetiche, così da ottenere un quadro completo dell'effetto di exchange bias nel sistema IrMn/NiFe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel corso di questa Tesi sono state studiate reazioni di cluster carburo-carbonilici Fe/Cu con composti azotati di varia natura: complessi fosforescenti di metalli di transizione, 1-10 fenantrolina, L-amminoacidi e Chinolina. In particolare la reazione tra Fe4C(CO)12Cu2(CH3CN)2 e [Ru(tpy)(bpy)(N4C-C6H4-CN)]+ ha portato alla sintesi dell’addotto Fe4C(CO)12{Cu2Cl[Ru(tpy)(bpy)(N4C-C6H4-CN)]}, sul quale sono state condotte misure di luminescenza (emissione, eccitazione e misura dei tempi di vita degli stati eccitati). Per confronto degli spettri registrati su campioni di adotto in soluzione con quelli del complesso cationico di Ru(II), si è ipotizzato che l’addotto sintetizzato in soluzione dia origine ad un sistema in equilibrio tra le specie legate e dissociate. Le reazioni di Fe4C(CO)12Cu2(CH3CN)2 e [NEt4][Fe5C(CO)14Cu(CH3CN)] con 1-10 fenantrolina hanno permesso di isolare le nuove specie [Fe4C(CO)12(Cuphen)]–, [Fe4C(CO)12(Cuphen)] e [Fe5C(CO)14(Cuphen)]–, sottoforma dei loro sali [Cu(phen)2][Fe4C(CO)12(Cuphen)], [NEt4] [Fe4C(CO)12(Cuphen)], [Fe4C(CO)12(Cuphen)], [NEt4][Fe5C(CO)14(Cuphen)]• CH2Cl2 e [NEt4][Fe5C(CO)14(Cuphen)]•THF. In tali cluster si nota come la natura bidentata di phen e il suo ingombro sterico abbiano causato notevoli riarrangiamenti strutturali rispetto alle specie iniziali contenenti acetonitrile. La sintesi di Fe4C(CO)12(CuQ)2 e [NEt4][Fe5C(CO)14(CuQ)] è avvenuta inaspettatamente a partire dalle reazioni condotte tra Fe4C(CO)12Cu2(CH3CN)2 e [NEt4][Fe5C(CO)14Cu(CH3CN)] con le molecole L-prolina, L-metionina e guanina, a causa della chinolina contenuta come impurezza nei reagenti di partenza. L’esito di questa reazione ha comunque mostrato l’elevata affinità dei cluster per il legante chinolina, sebbene presente in ambiente di reazione in misura sensibilmente inferiore rispetto agli altri reagenti. Tutte le nuove specie sintetizzate sono stati caratterizzate mediante spettroscopia IR e le strutture molecolari sono state determinate mediante diffrazione di raggi X su cristallo singolo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella tesi che si presenta si è determinata la riduzione percentuale di vulnerabilità sismica di un edificio residenziale, sito a Reggiolo (RE), in seguito ad interventi di riabilitazione e miglioramento sismico con l'introduzione di setti e travi di coronamento in cemento armato. Il punto di partenza è l'analisi delle caratteristiche geometriche dell'edificio, ottenute mediante gli elaborati originali, e le caratteristiche meccaniche dei materiali che compongono la struttura, ottenute mediante prove in situ distruttive e non distruttive. Il punto successivo è stato la creazione di un modello numerico dell'edificio pre-intervento utilizzando il programma commerciale PROSAP, su cui si è eseguita un'analisi dinamica lineare con spettro di progetto da cui si sono determinare le principali criticità e inadeguatezze della struttura nei confronti di un carico sismico. Lo studio è passato alla struttura post-intervento modellando la presenza dei setti verticali e delle travi di coronamento. Dal confronto fra l'analisi dinamica lineare pre e post-intervento si è dedotto un elevato miglioramento sismico con passaggio da un indice di vulnerabilità iniziale pari a 0.02 ad un indice post-intervento pari a 1. Per validare numericamente questi risultati si è eseguita una analisi statica non lineare (pushover) dell'edificio pre-intervento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Opportunistic diseases caused by Human Immunodeficiency Virus (HIV) and Hepatitis B Virus (HBV) is an omnipresent global challenge. In order to manage these epidemics, we need to have low cost and easily deployable platforms at the point-of-care in high congestions regions like airports and public transit systems. In this dissertation we present our findings in using Localized Surface Plasmon Resonance (LSPR)-based detection of pathogens and other clinically relevant applications using microfluidic platforms at the point-of-care setting in resource constrained environment. The work presented here adopts the novel technique of LSPR to multiplex a lab-on-a-chip device capable of quantitatively detecting various types of intact viruses and its various subtypes, based on the principle of a change in wavelength occurring when metal nano-particle surface is modified with a specific surface chemistry allowing the binding of a desired pathogen to a specific antibody. We demonstrate the ability to detect and quantify subtype A, B, C, D, E, G and panel HIV with a specificity of down to 100 copies/mL using both whole blood sample and HIV-patient blood sample discarded from clinics. These results were compared against the gold standard Reverse Transcriptase Polymerase Chain Reaction (RT-qPCR). This microfluidic device has a total evaluation time for the assays of about 70 minutes, where 60 minutes is needed for the capture and 10 minutes for data acquisition and processing. This LOC platform eliminates the need for any sample preparation before processing. This platform is highly multiplexable as the same surface chemistry can be adapted to capture and detect several other pathogens like dengue virus, E. coli, M. Tuberculosis, etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La verifica di vulnerabilità sismica di un edificio esistente è un procedimento volto a stabilire se questa è in grado o meno di resistere alla combinazione sismica di progetto. La vulnerabilità sismica di una struttura dipende da molteplici fattori quali la mancanza di requisiti fondamentali degli elementi strutturali, considerando che la maggior parte delle strutture presenti sul territorio italiano sono state progettate sulla base di normative che non consideravano l’azione sismica. Nel presente lavoro verranno analizzati tutti fattori necessari per effettuare una verifica di vulnerabilità sismica, determinando i fattori di sicurezza per ogni tipologia di verifica.