161 resultados para compressibilità edometro sabbia sabbie granulometria limiti di Atterberg


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quando la probabilità di misurare un particolare valore di una certa quantità varia inversamente come potenza di tale valore, il quantitativo è detto come seguente una power-law, conosciuta anche come legge di Zipf o distribuzione di Pareto. Obiettivo di questa tesi sarà principalmente quello di verificare se il campione esteso di imprese segue la power-law (e se sì, in che limiti). A tale fine si configureranno i dati in un formato di rete monomodale, della quale si studieranno alcune macro-proprietà di struttura a livllo complessivo e con riferimento alle componenti (i singoli subnet distinti) di maggior dimensione. Successivamente si compiranno alcuni approfondimenti sulla struttura fine di alcuni subnet, essenzialmente rivolti ad evidenziare la potenza di unapproccio network-based, anche al fine di rivelare rilevanti proprietà nascoste del sistema economico soggiacente, sempre, ovviamente, nei limiti della modellizzazione adottata. In sintesi, ciò che questo lavoro intende ottenere è lo sviluppo di un approccio alternativo al trattamento dei big data a componente relazionale intrinseca (in questo caso le partecipazioni di capitale), verso la loro conversione in "big knowledge": da un insieme di dati cognitivamente inaccessibili, attraverso la strutturazione dell'informazione in modalità di rete, giungere ad una conoscenza sufficientemente chiara e giustificata.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In alcuni paesi in via di sviluppo la forte crescita demografica ha favorito l’insinuarsi di un sistema consumistico, che comporta la generazione di ingenti quantitativi di rifiuti urbani. In tali paesi il problema è aggravato dalla progressiva urbanizzazione, con la conseguente necessità di smaltire i rifiuti solidi urbani nelle immediate vicinanze delle città dove vengono prodotti in gran quantità.Storicamente nei piani di gestione dei rifiuti si è sempre tenuta in considerazione la tutela della salute pubblica e dell’ambiente; negli ultimi anni è cresciuta l’attenzione verso l’utilizzo dei rifiuti come fonte di materie prime o di energia. Ai metodi di smaltimento tradizionali, rappresentati dalle discariche e dagli impianti di incenerimento, si sono progressivamente affiancate tecniche per la valorizzazione dei rifiuti: alcune di queste differenziano i rifiuti in base al materiale di cui sono costituiti per ottenere materie prime (raccolta differenziata), altre invece ricavano energia mediante opportuni trattamenti termici(termovalorizzazione). Se l’incenerimento dei rifiuti è nato con l’obiettivo di ridurne il volume e di distruggere le sostanze pericolose in essi presenti, la termovalorizzazione comprende un secondo obiettivo, che è quello di valorizzare il potere calorifico dei rifiuti, recuperando la potenza termica sviluppata durante la combustione e utilizzandola per produrre vapore, successivamente impiegato per produrre energia elettrica o come vettore termico per il teleriscaldamento. Il presente lavoro di tesi fa seguito ad un tirocinio svolto presso il termovalorizzatore costituito dal forno F3 per rifiuti speciali anche pericolosi della società Herambiente, ubicato in via Baiona a Ravenna. L’impianto utilizza un forno a tamburo rotante, scelto proprio per la sua versatilità nell’incenerire varie tipologie di rifiuti: solidi, liquidi organici e inorganici, fluidi fangosi. Negli ultimi anni si è delineato un aumento della richiesta di incenerimento di liquidi inorganici pericolosi, che sono prodotti di scarto di processi industriali derivanti dagli impianti del polo chimico ravennate. La presenza di un’elevata quantità di liquidi inorganici in ingresso al forno fa calare l’energia disponibile per la combustione e, di conseguenza, porta ad un consumo maggiore di combustibile ausiliario (metano). Si pone un problema di ottimo e cioè, a parità di potenza elettrica prodotta, occorre trovare la portata di rifiuti inorganici da inviare al forno che limiti la portata di metano in ingresso in modo da ottenere un utile netto positivo; ovviamente la soluzione ottimale è influenzata dal prezzo del metano e dalla remunerazione che il gestore riceve per lo smaltimento dei reflui inorganici. L’impostazione del problema di ottimo richiede la soluzione dei bilanci di materia e di energia per il termovalorizzatore. L’obiettivo del lavoro di tesi è stato l’impostazione in un foglio di calcolo dei bilanci di materia e di energia per il tamburo rotante e per la camera statica di post-combustione a valle del tamburo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’oggetto di questa tesi è un intervento di rigenerazione, riqualificazione ed adeguamento di un comparto residenziale di circa 22 ettari a Corticella, zona del quartiere Navile, pianificato tramite il PEEP di Bologna del 1963 e realizzato tra gli anni 70 e 80 del secolo scorso. L'area si trova nella periferia nord di Bologna ai limiti con la campagna e comprende 34 fabbricati, di cui 27 residenziali. L'evoluzione economico sociale degli ultimi decenni ha causato l'insorgenza di diverse criticità dell'area, tra cui:  scarsa efficienza energetica degli edifici con elevati costi di esercizio;  inadeguatezza sismica degli edifici;  bassi livelli di comfort abitativo;  scarsa varietà dei tagli degli alloggi;  scarsa qualità degli spazi pubblici e di relazione;  mancanza di connessioni a livello urbano (sia in termini di continuità morfologica che di viabilità). L'obiettivo che si pone la tesi è quello di adeguare l'area alle nuove esigenze, in modo da proiettarla avanti nel tempo e renderla una zona vivibile oggi e in futuro, con un progetto che tenga conto della fattibilità dell'intervento e delle caratteristiche e delle risorse degli Enti e dei proprietari privati coinvolti nella gestione dell’area. Per ottenere questi risultati, il progetto ha riorganizzato i collegamenti urbani, che oggi rendono l'area una zona emarginata, e ha previsto la riqualificazione funzionale e prestazionale degli edifici, adottando due diverse ipotesi di progetto. Per quanto riguarda la situazione urbana, si è previsto di inserire nuovi elementi per migliorare la viabilità, in particolare nuovi percorsi ciclopedonali ed uno shared space che rimette in comunicazione l'area con il centro storico di Corticella. Per la riqualificazione degli edifici sono stati selezionati due edifici campione, rappresentativi delle situazioni e tipologie più ricorrenti nell’area, che sono stati affrontati con due approcci diversi. Dell’edificio che presenta le criticità più acute, si è valutata non conveniente una riqualificazione pesante e si è quindi previsto un intervento minimo di miglioramento dell’efficienza energetica e della distribuzione interna. Per il secondo edificio invece è stato progettato l’aggiornamento del taglio degli alloggi,l’adeguamento delle prestazioni energetiche fino a raggiungere la classe energetica A(originariamente classe G), il miglioramento delle capacità antisismiche e del comfort luminoso. Gli alloggi di standard decisamente superiore a quello attuale, la riconfigurazione dello spazio di pertinenza degli edifici come shared space, e la realizzazione di nuovi collegamenti urbani migliorano l’appetibilità e il valore immobiliare degli edifici, ma anche le condizioni ambientali e l’abitabilità dell’intera area di intervento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'esame clinico della palpazione manuale dei tessuti è ancora oggi l'indagine preliminare più diffusa per l'identificazione e la diagnosi delle lesioni superficiali. L'esame è infatti in grado di fornire al medico esaminatore una valutazione qualitativa circa le proprietà meccaniche dei tessuti indagati, in particolare per quanto concerne la rigidità. I limiti fondamentali e intrinseci della palpazione sono l'impossibilità di raggiungere i tessuti in profondità, limitando quindi l'analisi agli elementi anatomici superficiali, e la grandezza delle lesioni rilevabili. L'elastografia si inserisce in tale contesto come strumento diagnostico in grado di valutare le proprietà meccaniche dei tessuti in funzione della profondità, con una risoluzione spaziale non ottenibile attraverso la semplice palpazione. L'elastosonografia rappresenta la metodologia elastografica attualmente più diffusa, caratterizzata da numerose tecnologie specializzate nell'indagine di diversi elementi anatomici. Il vantaggio fondamentale dell'elastosonografia rispetto ad altre metodiche come l'elastografia a risonanza magnetica o l'elastografia tattile risiede nell'integrazione efficace con la tradizionale indagine ecografica. L'elaborato si pone l'obiettivo di descrivere e valutare le varianti implementative dell'elastosonografia e la loro efficacia come strumento diagnostico. La prima parte (parte I) riassume i concetti fondamentali alla base dell'indagine ecografica, fornendo le nozioni teoriche ed un contesto adeguato alla comprensione dell'elastosonografia. Entrambe le indagini sono infatti basate principalmente sull'emissione e ricezione di ultrasuoni. La parte centrale (parte II) dell'elaborato analizza le principali tecniche elastosonografiche attualmente esistenti. I metodi descritti, a prescindere dal principio di funzionamento specifico, sono accomunati dalla medesima dinamica fondamentale che comprende una eccitazione meccanica del tessuto e l'osservazione della relativa risposta, per fornire una misura qualitativa o quantitativa della rigidità del tessuto in esame. L'ultima parte (parte III) analizza alcuni casi applicativi di particolare rilevanza, soffermandosi sulla valutazione dal punto di vista statistico del contributo fornito dalla specifica tecnica elastosonografica rispetto alle indagini tradizionali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La simulazione realistica del movimento di pedoni riveste una notevole importanza nei mondi dell'architettonica e della sicurezza (si pensi ad esempio all'evacuazione di ambienti), nell'industria dell'entertainment e in molti altri ambiti, importanza che è aumentata negli ultimi anni. Obiettivo di questo lavoro è l'analisi di un modello di pedone esistente e l'applicazione ad esso di algoritmi di guida, l'implementazione di un modello più realistico e la realizzazione di simulazioni con particolare attenzione alla scalabilità. Per la simulazione è stato utilizzato il framework Alchemist, sviluppato all'interno del laboratorio di ricerca APICe, realizzando inoltre alcune estensioni che potranno essere inglobate nel pacchetto di distribuzione del sistema stesso. I test effettuati sugli algoritmi presi in esame evidenziano un buon guadagno in termini di tempo in ambienti affollati e il nuovo modello di pedone risulta avere un maggiore realismo rispetto a quello già esistente, oltre a superarne alcuni limiti evidenziati durante i test e ad essere facilmente estensibile.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo elaborato presenta un metodo per lo sviluppo di correlazioni lineari con lo scopo di determinare le proprietà meccaniche di un acciaio laminato e zincato utilizzando un sensore che percepisce la magnetizzazione residua del materiale. Vengono utilizzati metodi statistici di analisi della varianza per lo studio delle funzioni di regressione lineari. Lo studio effettuato è stato sviluppato per la lavorazione di zincatura di coils presso Marcegaglia spa, stabilimento di Ravenna. È risultato evidente che la sola misurazione della magnetizzazione residua non fosse sufficiente per la determinazione delle proprietà meccaniche, a tale proposito sono stati sviluppati dei modelli di calcolo con funzioni multivariabili e, attraverso risolutori che minimizzano la differenza quadratica dell'errore, si sono determinati i coefficienti di regressione. Una delle principali problematiche riscontrate per la definizione delle correlazioni è stato il reperimento dei dati necessari per considerare affidabili i risultati ottenuti. Si sono infatti analizzate solamente le famiglie di materiale più numerose. Sono stati sviluppati tre modelli di calcolo differenti per parametri di processo di produzione utilizzati per la definizione delle correlazioni. Sono stati confrontati gli errori percentuali medi commessi dalle funzioni, gli indici di regressione che indicano la qualità della correlazione e i valori di significatività di ogni singolo coefficiente di regressione delle variabili. Si è dimostrato che la magnetizzazione residua influisce notevolmente, così come i parametri dei processo di ricottura del materiale, come le temperature in forno, lo spessore e le velocità. Questo modello di calcolo è stato utilizzato direttamente in linea per lo sviluppo di un ciclo ottimale per la produzione di un nuovo materiale bifasico. Utilizzando il modello per la predizione delle proprietà meccaniche si è concluso che per limiti impiantistici la chimica del materiale utilizzata non fosse idonea. Si è perciò utilizzato un acciaio con percentuali di carbonio, manganese e cromo differenti. In conclusione del progetto si sono formulate delle possibili alternative di funzioni di regressione che utilizzano il valore della durezza piuttosto che il valore di magnetizzazione residua. Si è appurato che l'utilizzo di un durometro, anziché il sensore studiato, potrebbe risultare una valida alternativa al sensore studiato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi tratta dell’amplificatore di potenza (PA–Power Amplifier) operante in classe E. Si tratta di un convertitore DC/AC ad elevato rendimento che può trovare impiego in numerose applicazioni in cui il problema della generazione di calore o la necessità di non sprecare energia sono particolarmente stringenti (ad esempio apparati per cui non è previsto un impianto di raffreddamento e/o apparati alimentati a batteria). L’elevato rendimento di un amplificatore operante in classe E deriva dalle specifiche forme d’onda ai capi del dispositivo attivo impiegato, tali per cui la perdita di commutazione durante la fase di accensione dello switch diviene pressoché trascurabile (Zero-Voltage-Switching e Zero-Derivative-Voltage Turn-ON). Il prezzo da pagare per ottenere queste benefiche forme d’onda è quello di avere un valore di cresta della tensione sul dispositivo che commuta assai più elevato del valore medio, coincidente con la tensione di alimentazione DC. In generale si stima una tensione di picco fra le 3 e le 5 volte più elevata della tensione DC, in funzione del Duty-Cycle e dell’assorbimento di corrente sul carico. Occorre poi tenere presente che in condizioni dinamiche (ad esempio qualora si collegasse direttamente l’amplificatore all’alimentazione) potrebbero innescarsi dei transitori tali per cui la tensione di picco ecceda anche il range suddetto. Per questo motivo è bene porre un limite alla massima tensione di picco adottando dei circuiti di protezione del transistore al fine di evitare la sua distruzione per limiti legati alla tensione di breakdown. Questi circuiti sono denominati clamper: in questa tesi valuteremo le modalità con cui si può implementare tale protezione; valuteremo, inoltre, i vantaggi e gli svantaggi derivanti dall’impiego di tali circuiti. Questi clamper sono prevalentemente di tipo dissipativo (Zener); nel corso della tesi si è studiato la realizzazione di un clamper rigenerativo che utilizza un trasformatore, ma si è constatata la irrealizzabilità fisica a causa della inevitabile presenza della induttanza dispersa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’impacchettamento risulta essere importante in molti settori industriali, come il settore minerario, farmaceutico e soprattutto il settore spaziale, in quanto permette di massimizzare il grado di riempimento del propellente solido di un razzo ottenendo prestazioni migliori e notevoli vantaggi economici. Il lavoro di tesi presentato nel seguente elaborato consiste nello studio dell’impacchettamento casuale, in particolare il caso Random Close Packing, di un propellente solido; per fare ciò è stato implementato un codice in ambiente C++ presso l’hangar della Scuola di Ingegneria ed Architettura con sede a Forlì. L’obiettivo principale era quello di trovare la granulometria delle particelle di perclorato di ammonio e delle particelle di alluminio tali da minimizzare gli spazi lasciati vuoti dalle particelle stesse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La previsione dei temporali rappresenta una delle operazioni più impegnative e complesse per chi svolge il mestiere di meteorologo, soprattutto se effettuata con molte ore di anticipo rispetto all'evento; ciò è riconducibile alla molteplicità di parametri da cui questi fenomeni dipendono ed all'incertezza che si riscontra nella simulazione degli indici di instabilità. In questo elaborato viene presentata ed approfondita una tecnica di elaborazione dei dati provenienti da radiosondaggi previsti, con lo scopo di migliorare la previsione dei temporali relativa al giorno successivo. Nel 1987 Colquhoun elaborò un albero decisionale per la previsione di temporali in Australia, basato sul superamento di soglie degli indici di instabilità. Qui di seguito, si propone di testare la validità dello stesso schema decisionale alla previsione di temporali in Pianura Padana ed in particolare in Emilia Romagna, procedendo ad un confronto tra gli eventi previsti ed i fenomeni osservati; la previsione si basa sull'output dell'albero decisionale utilizzando gli indici di instabilità previsti dai LAM COSMO-I7 e COSMO-I2 nel periodo +24/+48 ore, mentre l'osservazione dei temporali viene ricavata tramite consultazione quotidiana di METAR,SYNOP,SYREP, e mappe di fulminazioni relative al quadriennio 2010-2013. L'indice assunto per valutare l'affidabilità delle previsioni fornite è il Threat Score che presenta due limiti fondamentali: la dipendenza dal numero di eventi e l'incapacità di differenziare i falsi allarmi dai mancati allarmi. Ciò nonostante, questo indice rappresenta il miglior modo per ricavare una informazione complessiva e definire se la previsione fornita corrisponde ad una buona previsione. Lo stesso test viene effettuato sull'albero decisionale in uso presso la sala operativa di ARPA-SIM e dal confronto con l'albero di Colquhoun si deducono i limiti legati alla modellistica numerica che fornisce i dati in input. Infine il test sui parametri termodinamici previsti dai modelli COSMO-I2 e COSMO-I7 dimostra gli errori commessi sulla previsione a +24 e +36 ore dalle simulazioni. Questo lavoro si pone all'interno di un progetto più ampio di verifica della modellistica numerica sviluppata dal consorzio COSMO, al quale l'Italia aderisce attraverso la collaborazione di ARPA Emilia Romagna, ARPA Piemonte ed Aeronautica Militare. In particolare sono sottoposte a test le performances dei due modelli LAM sviluppati completamente in Italia ed utilizzati anche dal Dipartimento della protezione civile nazionale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi nasce con l’intento di indagare il rapporto tra l’interpretazione di conferenza e il mondo del volontariato, nonché di esplorare le dinamiche personali e professionali che originano da tale incontro. Nel primo capitolo viene presentata una cornice storica del fenomeno del volontariato quale premessa del suo emergere e imporsi sia a livello sociale e culturale, che a livello legislativo e giuridico. Nel secondo capitolo di questo studio si propone un breve quadro della situazione italiana odierna a partire dall’ultimo Censimento Istat sulle istituzioni non profit. In seguito, si presentano i caratteri strutturali dell’attività di volontariato così come individuati dalla legge-quadro sul volontariato, per passare poi ad indagare la natura giuridica dell’attività di volontariato con l’intento di collocarla all’interno di schemi qualificatori che assicurino la più adeguata tutela degli interessi del volontario e del beneficiario. Il terzo capitolo presenta l’indagine sperimentale condotta su un campione di interpreti di conferenza professionisti al fine di analizzare l’attività pro bono eventualmente svolta a partire da fattori come il tempo dedicato al volontariato, la natura delle motivazioni, i rapporti con le organizzazioni per le quali prestano i propri servizi. Viene presentata, inoltre, l’attività organizzata degli interpreti volontari tramite una disamina di alcune associazioni di interpreti pro bono attive a livello internazionale, nonché l’opinione delle associazioni di interpreti riguardo all’attività pro bono dei propri membri. Per ultimo, ci si soffermerà sulle difficoltà e i limiti che ostacolano lo svolgimento dell’interpretazione pro bono e che costituiscono, in pratica, la fonte delle critiche mosse nei suoi confronti dagli interpreti e dalle associazioni di interpreti. A tale scopo, verrà presentato, a titolo esemplificativo, il caso del Forum Sociale Mondiale tenutosi a Porto Alegre nel 2005.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Keying e composizione sono da sempre tecniche ampiamente utilizzate in contesti multimediali, quali produzione cinematografica e televisiva; il chroma keying è in particolare la tecnica più popolare, ma presenta una serie di limiti e problematiche. In questo elaborato viene proposta una tecnica alternativa di estrazione, basata sull'uso della profondità, operante in tempo reale e che sfrutta il device Kinect di Microsoft. Sono proposti una serie di algoritmi, basati su tecniche di edge detection, utilizzati per il miglioramento della depth map lungo i bordi di estrazione; viene infine testato il risultato ottenuto dall'implementazione del sistema e proposta una possibile applicazione nell'ambito del teatro multimediale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tecnologia rende ormai disponibili, per ogni tipologia di azienda, dispositivi elettronici a costo contenuto in grado di rilevare il comportamento dei propri clienti e quindi permettere di profilare bacini di utenza in base a comportamenti comuni. Le compagnie assicurative automobilistiche sono molto sensibili a questo tema poiché, per essere concorrenziali, il premio assicurativo che ogni cliente paga deve essere abbastanza basso da attirarlo verso la compagnia ma anche abbastanza alto da non diventare una voce negativa nel bilancio di quest'ultima. Negli ultimi anni vediamo dunque il diffondersi delle scatole nere, che altro non sono che dispositivi satellitari che aiutano le compagnie assicurative a definire più nel dettaglio il profilo del proprio cliente. Una migliore profilatura porta vantaggi sia all'assicurato che alla compagnia assicurativa, perché da un lato il cliente vede il premio dell'assicurazione abbassarsi, dall'altro la compagnia assicuratrice si sente rassicurata sull'affidabilità del cliente. Questi dispositivi sono costruiti per svolgere principalmente due compiti: raccogliere dati sulla guida dell'automobilista per una profilatura e rilevare un incidente. Come servizio aggiuntivo può essere richiesto supporto al primo soccorso. L'idea di questa tesi è quella di sviluppare un'applicazione per smartphone che funzioni da scatola nera e analizzare i vantaggi e i limiti dell'hardware. Prima di tutto l'applicazione potrà essere installata su diversi dispositivi e potrà essere aggiornata di anno in anno senza dover eliminare l'hardware esistente, d'altro canto lo smartphone permette di poter associare anche funzionalità di tipo client-care più avanzate. Queste funzionalità sarebbero di notevole interesse per l'automobilista, pensiamo ad esempio al momento dell'incidente, sarebbe impagabile un'applicazione che, rilevato l'incidente in cui si è rimasti coinvolti, avverta subito i soccorsi indicando esplicitamente l'indirizzo in cui è avvenuto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro di tesi si occupa dello studio del fenomeno di condensazione di Bose-Einstein sia da un punto di vista teorico che, in maniera più accennata, da quello pratico-sperimentale; risulta pertanto strutturato in due parti. La prima è incentrata sull'analisi prettamente teorico-matematica dell'argomento, e si apre con l'introduzione dell'opportuno apparato formale atto alla trattazione della statistica quantistica; a tal proposito vengono definiti gli operatori di densità. Quindi viene affrontato il problema dell'indistinguibilità degli enti quantistici e del conseguente carattere di simmetria delle funzioni d'onda, individuando così la differenza tra particelle fermioniche e bosoniche. Di queste ultime vengono largamente studiate la statistica cui essere rispondono e le loro principali caratteristiche termodinamiche. Infine, viene analizzato il caso specifico del gas ideale di Bose, trattato nei limiti del continuo e termodinamico; è nel corso di questa trattazione che emerge il fenomeno di transizione chiamato condensazione di Bose-Einstein, di cui vengono ampiamente studiate le proprietà. La seconda parte, invece, è volta all'analisi delle tecniche sperimentali utilizzate per la realizzazione della condensazione, in particolare le trappole ottiche di dipolo; dopo averne studiato le caratteristiche, vengono illustrate alcune tecniche di raffreddamento di atomi intrappolati. Il lavoro si conclude con la trattazione delle principali tecniche diagnostiche e di riconoscimento del condensato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il proposito principale di questo studio è valutare, attraverso un confronto tra tecnologia Nexfin e metodo invasivo, se l’attuazione di modelli fisiologici realizzata dal Monitor Nexfin, rende possibile un preciso e accurato monitoraggio dinamico della pressione arteriosa, garantendo in questo modo l’affidabilità della suddetta tecnologia in ambito clinico. È stato deciso di porre come termine di paragone il sistema invasivo in quanto rappresenta il gold standard per la rilevazione della pressione arteriosa. I capitoli sono stati disposti in modo da introdurre gradualmente il lettore all’interno del topic principale dell’elaborato, fornendo di volta in volta tutte le conoscenze essenziali per una comprensione ottimale degli argomenti trattati. Il primo capitolo fornisce inizialmente una breve visione d’insieme sull’apparato cardiocircolatorio, per poi concentrarsi sui fenomeni che concorrono alla definizione e alla caratterizzazione della pressione arteriosa. Il secondo capitolo presenta alcuni cenni storici sulle prime misurazioni di pressione effettuate, in seguito illustra i principali metodi di misurazione non invasivi, articolando il discorso anche attraverso l’analisi dei principali sfigmomanometri ad oggi disponibili. Il terzo capitolo guida il lettore attraverso la scoperta delle più recenti metodiche non invasive per la misurazione della pressione che consentono un monitoraggio dinamico, esponendo nel dettaglio i loro limiti e le loro peculiarità. Nella parte finale del capitolo si affronta anche l’evoluzione del “Volume Clamp Method” di Peñáz partendo dal progetto originale fino a giungere al notevole contributo di Wesseling e alla ricostruzione del segnale di pressione brachiale. Il quarto capitolo delinea brevemente le caratteristiche principali del metodo invasivo, ovvero il gold standard per quanto riguarda il monitoraggio della pressione sanguigna. Il quinto capitolo infine illustra in maniera completa le proprietà del Monitor Nexfin e analizza i risultati conseguiti, confrontando la tecnologia Nexfin con il sistema invasivo, durante lo studio condotto presso l’Ospedale Maurizio Bufalini dell’Azienda USL della Romagna – Sede operativa di Cesena. Lo studio è presentato seguendo una impostazione scientifica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro è stata svolta l'analisi chimica differenziale di 22 sistemi binari monitorati nel corso della survey SARG. L'obiettivo è determinare eventuali differenze di abbondanza e porre limiti osservativi a uno degli scenari attualmente accreditato come responsabile del legame tra metallicità della stella e presenza di pianeti giganti.