974 resultados para diffusione anelastica, Compton, apparato sperimentale
Resumo:
Premesse: Gli eventi ischemici (EI) e le emorragie cerebrali (EIC) sono le più temute complicanze della fibrillazione atriale (FA) e della profilassi antitrombotica. Metodi: in 6 mesi sono stati valutati prospetticamente i pazienti ammessi in uno dei PS dell’area di Bologna con FA associata ad EI (ictus o embolia periferica) o ad EIC. Risultati: sono stati arruolati 178 pazienti (60 maschi, età mediana 85 anni) con EI. Il trattamento antitrombotico in corso era: a) antagonisti della vitamina K (AVK) in 31 (17.4%), INR all’ingresso: <2 in 16, in range (2.0-3.0) in 13, >3 in 2; b) aspirina (ASA) in 107 (60.1%); c) nessun trattamento in 40 (22.5%), soprattutto in FA di nuova insorgenza. Nei 20 pazienti (8 maschi; età mediana 82) con EIC il trattamento era: a)AVK in 13 (65%), INR in range in 11 pazienti, > 3 in 2, b) ASA in 6 (30%). La maggior parte degli EI (88%) ed EIC (95%) si sono verificati in pazienti con età > 70 anni. Abbiamo valutato l’incidenza annuale di eventi nei soggetti con età > 70 anni seguiti neo centri della terapia anticoagulante (TAO) e nei soggetti con FA stimata non seguiti nei centri TAO. L’incidenza annuale di EI è risultata 12% (95%CI 10.7-13.3) nei pazienti non seguiti nei centri TAO, 0.57% (95% CI 0.42-0.76) nei pazienti dei centri TAO ( RRA 11.4%, RRR 95%, p<0.0001). Per le EIC l’incidenza annuale è risultata 0.63% (95% CI 0.34-1.04) e 0.30% (95% CI 0.19-0.44) nei due gruppi ( RRA di 0.33%/anno, RRR del 52%/anno, p=0.040). Conclusioni: gli EI si sono verificati soprattutto in pazienti anziani in trattamento con ASA o senza trattamento. La metà dei pazienti in AVK avevano un INR sub terapeutico. L’approccio terapeutico negli anziani con FA deve prevedere un’ adeguata gestione della profilassi antitrombotica.
Resumo:
L’elaborato ha ad oggetto lo studio della conciliazione e dell’arbitrato con riferimento alle controversie individuali di lavoro privato e pubblico. Vengono trattati i diversi profili che caratterizzano gli strumenti di risoluzione delle liti alternativi al processo, al fine di comprenderne la disciplina e l’effettiva portata, e di evidenziarne le criticità. L’elaborato si occupa, in primo luogo, di ricostruire il percorso di sviluppo della disciplina legislativa dei due istituti, partendo dalla configurazione del quadro della sua evoluzione storica e affrontando, poi, approfonditamente le più recenti tappe di tale evoluzione. Nella ricostruzione della disciplina della conciliazione e dell’arbitrato viene dato conto dell’assetto delle fonti, legislativa e contrattuale, definendone i rispettivi ruoli e competenze in materia: la tesi si sofferma quindi sul ruolo che il legislatore attribuisce all’autonomia collettiva e sulle modalità con le quali questo ruolo viene concretamente esercitato in sede di contrattazione. Successivamente, viene compiuta una valutazione delle conciliazioni e dell’arbitrato diretta a comprenderne l’efficacia e l’effettività. L’analisi pone in rilievo taluni elementi che sono ritenuti indispensabili per lo sviluppo delle predette caratteristiche e, quindi, per l’opzione e per la fiducia delle parti verso gli strumenti di composizione stragiudiziale delle liti. L’attenzione viene poi focalizzata sui regimi di impugnazione dei provvedimenti con cui si concludono le procedure stragiudiziali, sulla base della riflessione per la quale la diffusione di uno strumento di composizione delle controversie postula necessariamente un certo grado di stabilità degli atti che esso genera. L’ultima parte dell’elaborato è dedicata alla disamina delle ipotesi applicative di successo nell’esperienza italiana di Alternative Dispute Resolution, ossia il tentativo obbligatorio di conciliazione nei licenziamenti economici introdotto dalla Riforma Fornero, la conciliazione monocratica e l’arbitrato per l’impugnazione delle sanzioni disciplinari, anche con l’intento di comprendere quali caratteristiche ne abbiano favorito la diffusione, in rapporto alle altre tipologie di conciliazione e arbitrato di lavoro.
Resumo:
La presente trattazione analizza le novità normative apportate dalle recenti direttive europee sui servizi di pagamento e sulla moneta elettronica (rispettivamente la direttiva 2007/64/CE, c.c. Payment Services Directive o PSD, e la direttiva 2009/110/CE, detta Electronic Money Directive 2 o EMD2). Al fine di incrementare la competitività dei servizi di pagamento, sono stati introdotti nuovi prestatori di servizi di pagamento, non bancari, gli Istituti di Pagamento (IP) e gli Istituti di Moneta Elettronica (IMEL), a cui è stata attribuita la possibilità di far ricorso al contratto di conto di pagamento per la gestione dei servizi di pagamento con possibilità di finanziamento agli utenti. La prima parte della presente trattazione è dedicata alla configurazione giuridica dei nuovi prestatori di servizi di pagamento, influenzante la diffusione dei pagamenti digitali e della moneta elettronica. La seconda parte è rivolta alla ricostruzione giuridica del conto di pagamento, contratto – tipo per la gestione in conto dei servizi di pagamento, ed all’analisi delle modalità di erogazione dei finanziamenti agli utenti. Le direttive predette hanno inoltre attribuito ad IP ed IMEL la facoltà di emettere le carte di pagamento a spendibilità generalizzata, ossia carte di debito e carte di credito. In quanto abilitati all’emissione di moneta elettronica, gli IMEL possono inoltre emettere i c.d. borsellini di moneta elettronica, cioè i dispositivi di memorizzazione e di movimentazione della moneta elettronica. Nella terza parte della trattazione vengono, pertanto, presi in analisi la natura di tali strumenti di pagamento e le differenze intercorrenti rispetto agli affini strumenti bancari. In particolare, ampio spazio è dedicato alla ricostruzione giuridica dei borsellini di moneta elettronica, la cui diffusione tra gli utenti potrebbe avere l’effetto di favorire la progressiva digitalizzazione dei pagamenti e la realizzazione della cashless society.
Resumo:
In questi tesi viene studiata la teoria classica di diffusione del calore come modello parabolico per cui viene calcolata una soluzione attraverso il metodo di separazione delle variabili e il metodo delle onde dispersive. Viene poi affrontata la teoria alternativa proposta da Cattaneo del modello iperbolico del calore, allo scopo di superare il paradosso di velocità di propagazione infinita. Si conclude con alcuni esempi in cui lo stesso ragionamento viene applicato in diverse teorie diffusive e di reazione-diffusione in ambiti bio-matematici, come ad esempio la dinamica delle popolazioni.
Resumo:
L’attività sperimentale presentata in questo elaborato riguarda lo studio di una particolare applicazione che impiega la tecnologia laser per la lavorazione di materiali compositi ed è stata interamente svolta, in particolar modo nella sua parte operativa, presso i laboratori della Facoltà di Ingegneria a Bologna. Il lavoro di tesi ha come obiettivo fondamentale la valutazione degli effetti che i parametri di processo possono avere sulla qualità risultante nel procedimento di ablazione per i materiali compositi. Per questa indagine sono stati utilizzati campioni piani (tutti identici tra loro) con rinforzo in fibra di carbonio e matrice in resina epossidica, i quali sono stati lavorati con un laser Nd:YAG (λ = 1064 nm) funzionante in regime continuo. L’idea alla base dell’intera attività sperimentale è stata quella di realizzare una ablazione ottimale, rimuovendo dai campioni esclusivamente la resina (in maniera locale) e tentando, allo stesso tempo, di ottenere il minimo danneggiamento possibile per le fibre. Le prove effettuate non costituiscono naturalmente un punto di arrivo, bensì rappresentano piuttosto un punto di partenza per acquisire informazioni preliminari che potranno consentire, nel prossimo futuro, di proseguire con il perfezionamento del processo e la messa a punto dei parametri, al fine di conseguire una lavorazione che dia risultati effettivamente ottimali ed interessanti per l’eventuale applicazione industriale.
Resumo:
La prova informatica richiede l’adozione di precauzioni come in un qualsiasi altro accertamento scientifico. Si fornisce una panoramica sugli aspetti metodologici e applicativi dell’informatica forense alla luce del recente standard ISO/IEC 27037:2012 in tema di trattamento del reperto informatico nelle fasi di identificazione, raccolta, acquisizione e conservazione del dato digitale. Tali metodologie si attengono scrupolosamente alle esigenze di integrità e autenticità richieste dalle norme in materia di informatica forense, in particolare della Legge 48/2008 di ratifica della Convenzione di Budapest sul Cybercrime. In merito al reato di pedopornografia si offre una rassegna della normativa comunitaria e nazionale, ponendo l’enfasi sugli aspetti rilevanti ai fini dell’analisi forense. Rilevato che il file sharing su reti peer-to-peer è il canale sul quale maggiormente si concentra lo scambio di materiale illecito, si fornisce una panoramica dei protocolli e dei sistemi maggiormente diffusi, ponendo enfasi sulla rete eDonkey e il software eMule che trovano ampia diffusione tra gli utenti italiani. Si accenna alle problematiche che si incontrano nelle attività di indagine e di repressione del fenomeno, di competenza delle forze di polizia, per poi concentrarsi e fornire il contributo rilevante in tema di analisi forensi di sistemi informatici sequestrati a soggetti indagati (o imputati) di reato di pedopornografia: la progettazione e l’implementazione di eMuleForensic consente di svolgere in maniera estremamente precisa e rapida le operazioni di analisi degli eventi che si verificano utilizzando il software di file sharing eMule; il software è disponibile sia in rete all’url http://www.emuleforensic.com, sia come tool all’interno della distribuzione forense DEFT. Infine si fornisce una proposta di protocollo operativo per l’analisi forense di sistemi informatici coinvolti in indagini forensi di pedopornografia.
Resumo:
Fluxus è stato definito il più radicale e sperimentale movimento artistico degli anni Sessanta. Dalla prima comparsa ad oggi è stato osannato, analizzato, dimenticato e riscoperto molte volte, tuttora però rimane una delle più grandi incognite critiche della storia dell’arte del Novecento. La ricerca si sviluppa secondo uno schema tripartito: indagare origini, ascendenze e ispirazioni; collocare e contestualizzare il periodo di nascita e sviluppo; esaminare influenze e lasciti. Attraverso un confronto di manifesti, scritti autografi e opere si è cercato di verificare punti di contatto e di continuità tra Fluxus e le Avanguardie Storiche, con particolare riferimento a Futurismo e Dadaismo. Successivamente si è cercato di ricostruire le dinamiche che hanno portato, alla fine degli anni Cinquanta, al definirsi di un terreno fertile dal quale sono germinate esperienze strettamente legate quali Happening, Performance Art e lo stesso Fluxus, del quale si sono ripercorsi i cosiddetti “anni eroici” per evidenziarne le caratteristiche salienti. Nella terza sezione sono state individuate diverse ipotesi di continuazione dell’attitudine Fluxus, dal percorso storico-filologico dei precoci tentativi di musealizzazione, alle eredità dirette e indirette sulle generazioni successive di artisti, fino alla individuazione di idee e concetti la cui attualità rende Fluxus un elemento imprescindibile per la comprensione della cultura contemporanea.
Resumo:
La tesi di laurea presentata si inserisce nell’ampio contesto della Sicurezza Informatica, in particolare tratta il problema del testing dei sistemi di sicurezza concepiti per contrapporsi alle odierne minacce: gli attacchi mirati (Targeted Attacks) ed in generale le minacce avanzate persistenti (Advanced Persistent Threats). Il principale obiettivo del lavoro svolto è lo sviluppo e la discussione di una metodologia di test per sistemi di sicurezza focalizzati su questo genere di problemi. Le linee guida proposte hanno lo scopo di aiutare a colmare il divario tra quello che viene testato e quello che in realt`a deve essere affrontato realmente. Le attività svolte durante la preparazione della tesi sono state sia di tipo teorico, per quanto concerne lo sviluppo di una metodologia per affrontare al meglio il testing di sistemi di sicurezza a fronte di attacchi mirati, che ne di tipo sperimentale in quanto si sono utilizzati tali concetti per lo svolgimento di test su più strumenti di difesa in uno scenario d’interesse reale.
Resumo:
Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.
Resumo:
Analisi strutturale dell’ala di un UAV (velivolo senza pilota a bordo), sviluppata usando varie metodologie: misurazioni sperimentali statiche e dinamiche, e simulazioni numeriche con l’utilizzo di programmi agli elementi finiti. L’analisi statica è stata a sua volta portata avanti seguendo due differenti metodi: la classica e diretta determinazione degli spostamenti mediante l’utilizzo di un catetometro e un metodo visivo, basato sull’elaborazione di immagini e sviluppato appositamente a tale scopo in ambiente Matlab. Oltre a ciò è stata svolta anche una analisi FEM volta a valutare l’errore che si ottiene affrontando il problema con uno studio numerico. Su tale modello FEM è stata svolta anche una analisi di tipo dinamico con lo scopo di confrontare tali dati con i dati derivanti da un test dinamico sperimentale per ottenere informazioni utili per una seguente possibile analisi aeroelastica.
Resumo:
La termografia è un metodo d’indagine ampiamente utilizzato nei test diagnostici non distruttivi, in quanto risulta una tecnica d’indagine completamente non invasiva, ripetibile nel tempo e applicabile in diversi settori. Attraverso tale tecnica è possibile individuare difetti superficiali e sub–superficiali, o possibili anomalie, mediante la rappresentazione della distribuzione superficiale di temperatura dell’oggetto o dell’impianto indagato. Vengono presentati i risultati di una campagna sperimentale di rilevamenti termici, volta a stabilire i miglioramenti introdotti da tecniche innovative di acquisizione termografica, quali ad esempio la super-risoluzione, valutando un caso di studio di tipo industriale. Si è effettuato un confronto tra gli scatti registrati, per riuscire a individuare e apprezzare le eventuali differenze tra le diverse modalità di acquisizione adottate. L’analisi dei risultati mostra inoltre come l’utilizzo dei dispositivi di acquisizione termografica in modalità super-resolution sia possibile anche su cavalletto.
Resumo:
Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.
Resumo:
Introduction: Open fractures of the leg represent a severe trauma. The combined approach, shared between plastic and orthopaedic surgeons, is considered to be important, although this multidisciplinary treatment is not routinely performed. Aim of this study was to verify whether the orthoplastic treatment is of any advantage over the traditional simply orthopedic treatment, through a multicentric inclusion of these unfrequent injuries into a prospective study. Material and methods: The following trauma centres were involved: Rizzoli Orthopaedic Institute/University of Bologna (leading centre) and Maggiore Hospital (Bologna, Italy), Frenchay Hospital (Bristol, United Kingdom), Jinnah Hospital (Lahore, Pakistan). All patients consecutively hospitalized in the mentioned centres between January 2012 and December 2013 due to tibial open fractures were included in the study and prospectively followed up to December 2014. Demographics and other clinical features were recorded, including the type of treatment (orthopaedic or orthoplastic). The considered outcome measures included duration of hospitalization, time for bone union and soft tissue closure, Enneking score at 3, 6 and 12 months, the incidence of osteomyelitis and other complications. Results: A total of 164 patients were included in the study. Out of them 68% were treated with an orthoplastic approach, whereas 32% received a purely orthopedic treatment. All considered outcome measures showed to be improved by the orthoplastic approach, compared to the orthopaedic one: time for soft tissue closure (2 versus 25 weeks), duration of hospital stay (22 versus 55 days), time for bone union (6 versus 8.5 months) , number of additional operations (0.6 versus 1.2) and functional recovery of the limb at 12 months (27 versus 19, Enneking’s score). All results were statistically significant. Conclusion: The combined orthoplastic approach to the treatment of open tibia fractures, in particular for high grade injuries (Gustilo 3B), is proven to improve the outcome of these severe injuries.
Resumo:
L’accoppiamento articolare in ceramica è sempre più utilizzato in chirurgia protesica dell’anca per le sue eccellenti proprietà tribologiche. Tuttavia la fragilità della ceramica è causa di fallimenti meccanici. Abbiamo quindi condotto una serie di studi al fine di individuare un metodo efficace di diagnosi precoce del fallimento della ceramica. Abbiamo analizzato delle componenti ceramiche espiantate e abbiamo trovato un pattern di usura pre-frattura che faceva supporre una dispersione di particelle di ceramica nello spazio articolare. Per la diagnosi precoce abbiamo validato una metodica basata sulla microanalisi del liquido sinoviale. Per validare la metodica abbiamo eseguito un agoaspirato in 12 protesi ben funzionanti (bianchi) e confrontato i risultati di 39 protesi con segni di rottura con quelli di 7 senza segni di rottura. Per individuare i pazienti a rischio rottura i dati demografici di 26 pazienti con ceramica rotta sono stati confrontati con 49 controlli comparabili in termini demografici, tipo di ceramica e tipo di protesi. Infine è stata condotta una revisione sistematica della letteratura sulla diagnosi della rottura della ceramica. Nell’aspirato la presenza di almeno 11 particelle ceramiche di dimensioni inferiori a 3 micron o di una maggiore di 3 micron per ogni campo di osservazione sono segno di rottura della ceramica. La metodica con agoaspirato ha 100% di sensibilità e 88 % di specificità nel predire rotture della ceramica. Nel gruppo delle ceramiche rotte è stato trovato un maggior numero di malposizionamenti della protesi rispetto ai controlli (p=0,001). Il rumore in protesi con ceramica dovrebbe sollevare il sospetto di fallimento ed indurre ad eseguire una TC e un agoaspirato. Dal confronto con la letteratura la nostra metodica risulta essere la più efficace.
Resumo:
Il rachide è stato suddiviso in tre colonne da Denis: anteriore e centrale comprendono la metà anteriore del corpo vertebrale, la metà posteriore e l’inizio dei peduncoli, mentre la colonna posteriore comprende l’arco e i peduncoli stessi. In caso di resezione o lesione della colonna anteriore e media è indicata la ricostruzione. Diverse tecniche e materiali possono essere usati per ricostruire il corpo vertebrale. Innesti vascolarizzati, autograft, allograft sono stati usati, così come impianti sintetici di titanio o materiale plastico come il PEEK (Poly etere etere ketone). Tutti questi materiali hanno vantaggi e svantaggi in termini di proprietà intrinseche, resistenza meccanica, modulo di elasticità, possibilità di trasmissione malattie, capacità di fondersi con l’osso ospite o meno. Le soluzioni più usate sono le cage in titanio o carbonio, il PMMA ( Poli methil metacrilato), gli innesti ossei massivi. Si è effettuato uno studio di coorte retrospettivo paragonando due gruppi di pazienti oncologici spinali trattati da due chirurghi esperti in un centro di riferimento, con vertebrectomia e ricostruzione della colonna anteriore: un gruppo con cage in carbonio o titanio, l’altro gruppo con allograft massivo armato di innesto autoplastico o mesh in titanio. Si sono confrontati i risultati in termini di cifosi segmenterai evolutiva, fusione ossea e qualità di vita del paziente. Il gruppo delle cage in carbonio / titanio ha avuto risultati leggermente migliori dal punto di vista biomeccanico ma non statisticamente significativo, mentre dal punto di vista della qualità di vita i risultati sono stati migliori nel gruppo allograft. Non ci sono stati fallimenti meccanici della colonna anteriore in entrambi i gruppi, con un Fu tra 12 e 60 mesi. Si sono paragonati anche i costi delle due tecniche. In conclusione l’allogar è una tecnica sicura ed efficace, con proprietà meccaniche solide, soprattutto se armato con autograft o mesi in titanio.