1000 resultados para compressibilità edometro sabbia sabbie granulometria limiti di Atterberg


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’aumento esponenziale del contenzioso medico-legale – originatosi negli USA negli anni Sessanta in proporzioni tali da far parlare di medical liability crisis, e sviluppatosi in Italia a partire dalla metà degli anni Ottanta – ha comportato e continua a comportare, unitamente ad altre conseguenze negative, il ricorso sempre più frequente dei sanitari alle pratiche di medicina difensiva, con elevatissimi costi a carico del Servizio Sanitario Nazionale dovuti alla sovrabbondanza di trattamenti e ricoveri inutili e di procedure diagnostiche invasive non necessarie, peraltro produttive di stress emotivo nei pazienti. La causa dell’aumento della litigiosità deve essere ricercata in buona parte nella relazione medico-paziente, in particolar modo con riferimento al momento informativo che precede l’acquisizione del consenso informato al trattamento clinico. In Italia, i limiti che per lo più caratterizzano gli studi riguardanti il consenso informato derivano principalmente dal fatto che essi tendono a focalizzarsi unicamente sulla componente scritta del medesimo. Il fulcro del consenso informato, invece, deve ritenersi rappresentato da una comunicazione tra sanitario e paziente relativa ad un trattamento proposto ed alle possibili alternative, alla non sottoposizione ad alcun trattamento e ai rischi e benefici di ciascuna di queste opzioni. In un tale contesto il tema della comunicazione tra il professionista e la persona assistita sta suscitando interesse poiché ci si aspetta che esso conduca a miglioramenti degli outcome dei pazienti e alla diminuzione delle denunce da parte di questi ultimi per casi di responsabilità sanitaria. La maggiore attenzione al rapporto medico - paziente ha fatto emergere il bisogno di migliorare e potenziare le abilità comunicative dei medici, in un’ottica in cui il momento comunicativo possa essere percepito dal professionista come fulcro del rapporto medico-paziente, nella prospettiva di una elaborazione di strategie di prevenzione e contrasto ai fenomeni di medicina difensiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Keying e composizione sono da sempre tecniche ampiamente utilizzate in contesti multimediali, quali produzione cinematografica e televisiva; il chroma keying è in particolare la tecnica più popolare, ma presenta una serie di limiti e problematiche. In questo elaborato viene proposta una tecnica alternativa di estrazione, basata sull'uso della profondità, operante in tempo reale e che sfrutta il device Kinect di Microsoft. Sono proposti una serie di algoritmi, basati su tecniche di edge detection, utilizzati per il miglioramento della depth map lungo i bordi di estrazione; viene infine testato il risultato ottenuto dall'implementazione del sistema e proposta una possibile applicazione nell'ambito del teatro multimediale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tecnologia rende ormai disponibili, per ogni tipologia di azienda, dispositivi elettronici a costo contenuto in grado di rilevare il comportamento dei propri clienti e quindi permettere di profilare bacini di utenza in base a comportamenti comuni. Le compagnie assicurative automobilistiche sono molto sensibili a questo tema poiché, per essere concorrenziali, il premio assicurativo che ogni cliente paga deve essere abbastanza basso da attirarlo verso la compagnia ma anche abbastanza alto da non diventare una voce negativa nel bilancio di quest'ultima. Negli ultimi anni vediamo dunque il diffondersi delle scatole nere, che altro non sono che dispositivi satellitari che aiutano le compagnie assicurative a definire più nel dettaglio il profilo del proprio cliente. Una migliore profilatura porta vantaggi sia all'assicurato che alla compagnia assicurativa, perché da un lato il cliente vede il premio dell'assicurazione abbassarsi, dall'altro la compagnia assicuratrice si sente rassicurata sull'affidabilità del cliente. Questi dispositivi sono costruiti per svolgere principalmente due compiti: raccogliere dati sulla guida dell'automobilista per una profilatura e rilevare un incidente. Come servizio aggiuntivo può essere richiesto supporto al primo soccorso. L'idea di questa tesi è quella di sviluppare un'applicazione per smartphone che funzioni da scatola nera e analizzare i vantaggi e i limiti dell'hardware. Prima di tutto l'applicazione potrà essere installata su diversi dispositivi e potrà essere aggiornata di anno in anno senza dover eliminare l'hardware esistente, d'altro canto lo smartphone permette di poter associare anche funzionalità di tipo client-care più avanzate. Queste funzionalità sarebbero di notevole interesse per l'automobilista, pensiamo ad esempio al momento dell'incidente, sarebbe impagabile un'applicazione che, rilevato l'incidente in cui si è rimasti coinvolti, avverta subito i soccorsi indicando esplicitamente l'indirizzo in cui è avvenuto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro di tesi si occupa dello studio del fenomeno di condensazione di Bose-Einstein sia da un punto di vista teorico che, in maniera più accennata, da quello pratico-sperimentale; risulta pertanto strutturato in due parti. La prima è incentrata sull'analisi prettamente teorico-matematica dell'argomento, e si apre con l'introduzione dell'opportuno apparato formale atto alla trattazione della statistica quantistica; a tal proposito vengono definiti gli operatori di densità. Quindi viene affrontato il problema dell'indistinguibilità degli enti quantistici e del conseguente carattere di simmetria delle funzioni d'onda, individuando così la differenza tra particelle fermioniche e bosoniche. Di queste ultime vengono largamente studiate la statistica cui essere rispondono e le loro principali caratteristiche termodinamiche. Infine, viene analizzato il caso specifico del gas ideale di Bose, trattato nei limiti del continuo e termodinamico; è nel corso di questa trattazione che emerge il fenomeno di transizione chiamato condensazione di Bose-Einstein, di cui vengono ampiamente studiate le proprietà. La seconda parte, invece, è volta all'analisi delle tecniche sperimentali utilizzate per la realizzazione della condensazione, in particolare le trappole ottiche di dipolo; dopo averne studiato le caratteristiche, vengono illustrate alcune tecniche di raffreddamento di atomi intrappolati. Il lavoro si conclude con la trattazione delle principali tecniche diagnostiche e di riconoscimento del condensato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il proposito principale di questo studio è valutare, attraverso un confronto tra tecnologia Nexfin e metodo invasivo, se l’attuazione di modelli fisiologici realizzata dal Monitor Nexfin, rende possibile un preciso e accurato monitoraggio dinamico della pressione arteriosa, garantendo in questo modo l’affidabilità della suddetta tecnologia in ambito clinico. È stato deciso di porre come termine di paragone il sistema invasivo in quanto rappresenta il gold standard per la rilevazione della pressione arteriosa. I capitoli sono stati disposti in modo da introdurre gradualmente il lettore all’interno del topic principale dell’elaborato, fornendo di volta in volta tutte le conoscenze essenziali per una comprensione ottimale degli argomenti trattati. Il primo capitolo fornisce inizialmente una breve visione d’insieme sull’apparato cardiocircolatorio, per poi concentrarsi sui fenomeni che concorrono alla definizione e alla caratterizzazione della pressione arteriosa. Il secondo capitolo presenta alcuni cenni storici sulle prime misurazioni di pressione effettuate, in seguito illustra i principali metodi di misurazione non invasivi, articolando il discorso anche attraverso l’analisi dei principali sfigmomanometri ad oggi disponibili. Il terzo capitolo guida il lettore attraverso la scoperta delle più recenti metodiche non invasive per la misurazione della pressione che consentono un monitoraggio dinamico, esponendo nel dettaglio i loro limiti e le loro peculiarità. Nella parte finale del capitolo si affronta anche l’evoluzione del “Volume Clamp Method” di Peñáz partendo dal progetto originale fino a giungere al notevole contributo di Wesseling e alla ricostruzione del segnale di pressione brachiale. Il quarto capitolo delinea brevemente le caratteristiche principali del metodo invasivo, ovvero il gold standard per quanto riguarda il monitoraggio della pressione sanguigna. Il quinto capitolo infine illustra in maniera completa le proprietà del Monitor Nexfin e analizza i risultati conseguiti, confrontando la tecnologia Nexfin con il sistema invasivo, durante lo studio condotto presso l’Ospedale Maurizio Bufalini dell’Azienda USL della Romagna – Sede operativa di Cesena. Lo studio è presentato seguendo una impostazione scientifica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'interrogativo da cui nasce la ricerca riguarda la possibilità di individuare, in controtendenza con la logica neoliberista, strategie per l'affermarsi di una cultura dello sviluppo che sia sostenibile per l'ambiente e rispettosa della dignità delle persone, in grado di valorizzarne le differenze e di farsi carico delle difficoltà che ognuno può incontrare nel corso della propria esistenza. Centrale è il tema del lavoro, aspetto decisivo delle condizioni di appartenenza sociale e di valorizzazione delle risorse umane. Vengono richiamati studi sulla realtà in cui siamo immersi, caratterizzata dal pensiero liberista diventato negli ultimi decenni dominante su scala globale e che ha comportato una concezione delle relazioni sociali basata su di una competitività esasperata e sull’esclusione di chi non sta al passo con le leggi di mercato: le conseguenze drammatiche dell'imbroglio liberista; la riduzione delle persone a consumatori; la fuga dalla comunità ed il rifugio in identità separate; il tempo del rischio, della paura e della separazione fra etica e affari. E gli studi che, in controtendenza, introducono a prospettive di ricerca di uno sviluppo inclusivo e umanizzante: le prospettive della decrescita, del business sociale, di una via cristiana verso un'economia giusta, della valorizzazione delle capacità delle risorse umane. Vengono poi indagati i collegamenti con le esperienze attive nel territorio della città di Bologna che promuovono, attraverso la collaborazione fra istituzioni, organizzazioni intermedie e cittadini, occasioni di un welfare comunitario che sviluppa competenze e diritti insieme a responsabilità: l'introduzione delle clausole sociali negli appalti pubblici per la realizzazione professionale delle persone svantaggiate; la promozione della responsabilità sociale d'impresa per l'inclusione socio-lavorativa; la valorizzazione delle risorse delle persone che vivono un’esperienza carceraria. Si tratta di esperienze ancora limitate, ma possono costituire un riferimento culturale e operativo di un modello di sviluppo possibile, che convenga a tutti, compatibile con i limiti ambientali e umanizzante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro è stata svolta l'analisi chimica differenziale di 22 sistemi binari monitorati nel corso della survey SARG. L'obiettivo è determinare eventuali differenze di abbondanza e porre limiti osservativi a uno degli scenari attualmente accreditato come responsabile del legame tra metallicità della stella e presenza di pianeti giganti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con l'aumento del numero di sensori e ricevitori presenti sui dispositivi mobili attuali, è possibile lo sviluppo di nuove applicazioni in grado di fornire dati utili sul contesto in cui si trova un utente in un determinato momento. In questa tesi viene descritta la realizzazione di un servizio per dispositivi Android in grado di riconoscere il tipo di mobilità dell'utente. La motivazione principale di questo progetto è stata la scarsità di soluzioni specifiche per questo tipo di riconoscimento contestuale. Sono state quindi realizzate una libreria Java e un'applicazione Android in grado di fornire tale funzionalità. La tecnica impiegata per il riconoscimento è derivata da una ricerca dei dottori Luca Bedogni e Marco Di Felice e del professore Luciano Bononi, dell'Università di Bologna. Tale tecnica sfrutta le misurazioni di accelerometro e giroscopio del dispositivo per rilevare pattern di movimento e associarli ai vari tipi di mobilità dell'utente. Per mostrare un possibile impiego di questo servizio, è stata realizzata un'applicazione che sfrutta i dati forniti dal servizio di riconoscimento per la gestione dello stato di alcune funzionalità del dispositivo. Inoltre, è stata effettuata una analisi statistica della precisione effettiva di questo sistema di riconoscimento, per evidenziarne i punti di forza e i limiti rispetto alle soluzioni già esistenti. E' stato osservato che il consumo energetico di questo sistema è minore rispetto ad applicazioni basate su servizi di geolocalizzazione, e che la sua precisione è accettabile rispetto ad altre soluzioni già esistenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il punto di partenza dell'elaborato riguarda il modo in cui si giunge, a partire dalla relatività ristretta, a quella generale. Quest'ultima viene poi identificata come una teoria della gravitazione in cui si ottengono le equazioni di campo. Da qui si discute la soluzione delle equazioni di Einstein trovata da Schwarzschild evidenziandone i limiti. Si procede alla estensione di questa soluzione introducendo dapprima le coordinate di Eddington-Finkelstein e poi l'estensione massima data da Kruskal. Infine viene mostrato come è possibile compattificare l'infinito spaziotempo in una regione finita senza alterare la struttura causale. Questo viene fatto tramite delle trasformazioni particolari: le trasformazioni conformi. I diagrammi spaziotemporali che si ottengono dopo la compattificazione conforme sono conosciuti come i digrammi di Penrose e qui si vede come ottenere quelli dello spaziotempo di Minkowski e quelli dello spaziotempo della soluzione di Schwarzschild.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ricostruzione dettagliata dell’architettura stratigrafica e delle facies delle successioni tardo-quaternarie sepolte al di sotto delle pianure alluvionali moderne sta assumendo un’importanza crescente come strumento per le ricostruzioni paleoambientali e paleoclimatiche e per la correlazione dei sistemi deposizionali continentali e costieri, finalizzata alla caratterizzazione geometrica di corpi sedimentari che rappresentano potenziali serbatoi. Un impulso significativo verso la caratterizzazione dell’architettura stratigrafica dei depositi tardo-quaternari del Bacino Padano è stato fornito, negli ultimi quindici anni, da un’intensa campagna di perforazioni operata dal Servizio Geologico, Sismico e dei Suoli di Regione Emilia-Romagna, nell’ambito della realizzazione della Carta geologica d’Italia in scala 1:50.000. Tuttavia, per ottenere un numero sufficiente di informazioni stratigrafiche è necessario un dataset molto esteso e le perforazioni (sondaggi a carotaggio continuo) presentano costi estremamente elevati. I limiti operativi delle descrizioni dei sondaggi a carotaggio continuo possono essere superati utilizzando metodi indiretti che si basano sullo sfruttamento delle proprietà geotecniche dei depositi tardo-quaternari. In questo lavoro di tesi l’analisi delle caratteristiche geotecniche delle prove CPTU è stata sfruttata per caratterizzare le associazioni di facies della Pianura Padana centrale. Una dettagliata analisi dei log stratigrafici e, in particolare, delle curve di resistenza delle prove CPTU inserite nelle sezioni, la costruzione di sezioni stratigrafiche e un meticoloso lavoro di correlazione basato su 19 datazioni radiometriche, ha rivelato una serie di paleosuoli (inceptisuoli) impilati nei 50-60 m più superficiali della successione tardo-quaternaria della Pianura Padana centrale; questi paleosuoli rappresentano l’unico marker stratigrafico all’interno di una successione costituita prevalentemente da depositi argillosi uniformi. L’analisi delle caratteristiche geotecniche di alcuni paleosuoli e dei loro rapporti con la channel belt del Fiume Po risulta fondamentale per comprendere l’evoluzione recente del Bacino Padano e le caratteristiche geometriche dei corpi sedimentari finalizzata allo sfruttamento di potenziali risorse fluide sotterranee.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo studio riguarda la caratterizzazione geochimica dei sedimenti del sito Caretti, situato a est del comune di Ferrara, interessato da un forte caso di contaminazione dovuto alla presenza di due discariche municipali non controllate risalenti agli anni '60-'70. L'obiettivo del lavoro è quello di valutare la geochimica dei sedimenti e delle acque prelevate nel sito al fine di individuare eventuali relazioni tra il chimismo delle due matrici. Inoltre, i dati dell' analisi dei sedimenti sono stati confrontati con quelli di letteratura per delinearne aspetti di provenienza. I dati geochimici dei sedimenti sono stati ottenuti mediante fluorescenza a raggi X (XRF) e sono stati elaborati graficamente e statisticamente, mediante software di analisi statistica (GCDkit). La composizione geochimica delle acque è stata ottenuta mediante tecniche di cromatografia ionica e spettroscopia di assorbimento atomico. La geochimica dei sedimenti ha evidenziato che la composizione chimica mostra associazioni di elementi legate a una componente tessiturale del sedimento. In particolare si rilevano concentrazioni elevate di Fe2O3, Al2O3, TiO2, Cr, Ni, e V in sedimenti a granulometria fine, a differenza delle concentrazioni di SiO2 e Na2O elevate in sedimenti sabbiosi. La distribuzione statistica degli elementi nei sedimenti e nelle acque ha permesso di effettuare una valutazione delle caratteristiche geochimiche dei principali corpi idrogeologici. La caratterizzazione geochimica ha fornito, inoltre, indicazioni sull'origine dei sedimenti. Cromo e Nichel, tra gli elementi in traccia, sono particolarmente efficaci nella valutazione della provenienza permettendo, all'interno del sito Caretti, una distinzione tra popolazioni di provenienza appenninica (bassi valori Cr-Ni) e padana (alti valori Cr-Ni).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Studio e ottimizzazione di un rotore monopala a resistenza aerodinamica che, tramite deformazioni strutturali causate dal carico del vento, limiti autonomamente la propria velocità in caso di vento troppo forte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quando si parla di architetture di controllo in ambito Web, il Modello ad Eventi è indubbiamente quello più diffuso e adottato. L’asincronicità e l’elevata interazione con l’utente sono caratteristiche tipiche delle Web Applications, ed un architettura ad eventi, grazie all’adozione del suo tipico ciclo di controllo chiamato Event Loop, fornisce un'astrazione semplice ma sufficientemente espressiva per soddisfare tali requisiti. La crescita di Internet e delle tecnologie ad esso associate, assieme alle recenti conquiste in ambito di CPU multi-core, ha fornito terreno fertile per lo sviluppo di Web Applications sempre più complesse. Questo aumento di complessità ha portato però alla luce alcuni limiti del modello ad eventi, ancora oggi non del tutto risolti. Con questo lavoro si intende proporre un differente approccio a questa tipologia di problemi, che superi i limiti riscontrati nel modello ad eventi proponendo un architettura diversa, nata in ambito di IA ma che sta guadagno popolarità anche nel general-purpose: il Modello ad Agenti. Le architetture ad agenti adottano un ciclo di controllo simile all’Event Loop del modello ad eventi, ma con alcune profonde differenze: il Control Loop. Lo scopo di questa tesi sarà dunque approfondire le due tipologie di architetture evidenziandone le differenze, mostrando cosa significa affrontare un progetto e lo sviluppo di una Web Applications avendo tecnologie diverse con differenti cicli di controllo, mettendo in luce pregi e difetti dei due approcci.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La sempre minore disponibilità di combustibili fossili e il crescente inquinamento ambientale, hanno incentivato non solo la ricerca di fonti alternative di energia, ma anche lo sviluppo di nuove tecnologie che ci permettessero di sfruttarle. Non solo sono stati sviluppati pannelli solari e paleoliche, che ci permettono di ottenere energia rinnovabile; ma anche i "comuni" strumenti sono stati modificati per far fronte a queste esigenze. Tra le più importanti innovazioni, lo sviluppo delle auto elettriche è quella che ha riscosso più interesse. Nonostante gli ingenti investimenti iniziali però, l'immissione nel mercato non sta riscuotendo il successo sperato. Uno dei maggiori limiti riscontrati è quello che viene definito Range Anxiety, ovvero la paura che il veicolo elettrico (EV) non abbia abbastanza autonomia per garantire al conducente il raggiungimento della meta. Inoltre il tutto viene amplificato dai lunghi tempi di ricarica delle batterie e l'elevato costo degli EV. Per arginare questi problemi, in questo documento viene descritto lo sviluppo di un applicazione Android (WhatIfApp - WIA) per la valutazione della sostenibilità di un viaggio, facendo visualizzare all'utente i tempi di percorrenza (ottimizzati) e i consumi, che un EV dovrebbe affrontare in determinati percorsi. In particolare, ne viene spiegato l'utilizzo, le funzionalità, le scelte implementative e le future estensioni.