1000 resultados para metodi di autenticazione a chiave pubblica e privata protocollo di Schnorr
Resumo:
La presenza di micotossine nelle materie prime desta grande preoccupazione a causa delle importanti implicazioni nella sicurezza di alimenti e mangimi. Lo scopo di questo lavoro è stato quello di mettere a punto e validare una metodica analitica rapida e semplice, in cromatografia liquida ad ultra prestazione accoppiata a spettrometria di massa-tandem (UPLC-MS/MS), per la determinazione simultanea di differenti micotossine: aflatossine (B1, B2, G1, G2), ocratossina A, fumonisine (B1, B2), deossinivalenolo e zearalenone in matrici biologiche. Il metodo sviluppato per l’analisi di campioni di mangime secco per cani ha mostrato prestazioni adeguate ed è stato applicato a 49 campioni reperibili in commercio, al fine di valutare la sua efficacia e di ottenere alcuni dati preliminari sulla contaminazione da micotossine in alimenti per cani disponibili sul mercato italiano. Lo studio ha evidenziato una percentuale alta di campioni positivi, contenenti principalmente fumonisine, deossinivalenolo e ocratossina A; tutti i tenori si sono dimostrati inferiori al limite di legge previsto (Racc. CE 576/2006). Una seconda metodica è stata messa a punto e validata per l’identificazione e la quantificazione micotossine in campioni di formaggio; per questa matrice è stata inserita anche l’aflatossina M1, specifica dei prodotti lattiero - caseari. Le differenti proprietà chimico-fisiche degli analiti e la complessità della matrice hanno implicato alcune difficoltà nello sviluppo della metodica. Tuttavia, il metodo validato si è mostrato rapido, semplice ed affidabile ed è stato applicato a diversi tipi di formaggi per verificarne la versatilità. I risultati preliminari hanno mostrato l’assenza di contaminazione da parte delle micotossine in oggetto. Entrambi i metodi si sono dimostrati utili per il monitoraggio di contaminanti in matrici complesse ad oggi ancora poco studiate.
Resumo:
L’abuso dell’anziano è una condizione estremamente diffusa e ha un grande costo umano e finanziario. La dimensione reale del problema del maltrattamento dell’anziano non è stata correttamente definita, in particolare i casi segnalati ufficialmente di abuso sono solo la "punta dell'iceberg". In questi anni il problema è stato riconosciuto a livello internazionale come un fenomeno comune, che viene sottostimato e degno di attenzione da parte della comunità scientifica. In Italia non ci sono molti dati, la prevalenza degli abusi e maltrattamenti può essere circa il 5% e il problema è ampiamente sottovalutato, perché sono scarse le segnalazioni di abusi. Le evidenze disponibili dimostrano che l'abuso sugli anziani in Italia costituisce una questione pubblica, tuttavia, la legislazione e le politiche per affrontare il fenomeno sono scarse, riflettendo la mancanza di una strategia nazionale coerente e globale. Il codice civile italiano non contiene alcun riferimento esplicito a persone anziane, e pochi sono anche gli articoli del codice penale che riguardano le persone anziane. Gli articoli più rilevanti interessate sono le seguenti: art. 572: "Maltrattamenti contro familiari e conviventi" e art. 643: "circonvenzione di persone incapaci". Il presente studio ha lo scopo di analizzare la situazione attuale del fenomeno nel nostro Paese, al fine di valutare la dimensione del problema e le relazioni di abuso e maltrattamenti tra vittime, caregiver e operatori sanitari alle autorità.
Resumo:
Introduzione: L’indicazione alla rivascolarizzazione carotidea è comunemente posta in base alla percentuale di stenosi, alla presenza di sintomi neurologici ed alle condizioni cliniche del paziente. Una placca ad elevato potenziale embolico viene definita “vulnerabile”; la sua caratterizzazione, tuttavia, non è universalmente accettata ai fini della rivascolarizzazione. Lo scopo dello studio è indagare il ruolo del mezzo di contrasto ecografico (CEUS) nell’identificazione della placca carotidea vulnerabile. Materiali e Metodi: I pazienti sottoposti a endoarterectomia carotidea, sono stati valutati mediante TC cerebrale preoperatoria e CEUS. Le microbolle di contrasto rilevate nella placca, indicative di neovascolarizzazione, sono state quantificate in dB-E ed istologicamente valutate per cinque caratteristiche: (densità dei microvasi, spessore del cappuccio fibroso, estensione delle calcificazioni, infiltrato infiammatorio e core lipidico) il valore da 1 a 5, ottenuto in cieco, indica in grado di vulnerabilità della placca. L'ANOVA test, il test di Fisher e t Student sono stati usati per correlare le caratteristiche dei pazienti ed istologiche col valore di dB-E. Risultati: Di 22 pazienti (range 2-7.8, media 4.85 ±1.9 SD) vi era un numero più alto di sintomatici (7.40 ± 0.5) rispetto agli asintomatici (3.5 ± 1.4) (p = 0.002). Un più alto valore di dB-E si associava con la presenza di un sottile cappuccino fibroso (<200 µm, 5.96±1.5 vs. 3 ± 1,p = 0.01) ed un maggiore infiltrato infiammatorio (3.2 ± 0.9 vs. 6.4 ± 1.2, p = 0.03). Placche con vulnerabilità 5 si associavano ad un valore più alto di dB-E rispetto alle placche con vulnerabilità 1 (7.6 ± 0.2 vs. 2.5 ± 0.6, rispettivamente, p=0.001). Preoperatoriamente, le lesioni emboliche ipsilaterali alla TC, correlavano con un più alto valore di dB-E (5.96±1.5 vs. 3.0±1.0, p=0.01). Conclusioni: Il valore di dB-E alla CEUS indica l’estensione della neovascolarizzazione della placca carotidea e può essere utilizzato come marker di vulnerabilità della placca.
Resumo:
Background: sebbene la letteratura recente abbia suggerito che l’utilizzo degli impianti corti possa rappresentare una alternative preferibile alle procedure di rigenerazione ossea nelle aree posteriori atrofiche, perché è un trattamento più semplice e con meno complicazioni, esistono solo pochi studi a medio e lungo termine che abbiano comparato queste tecniche. Scopo: lo scopo di questo studio retrospettivo è quello di valutare se gli impianti corti (6-8 mm) (gruppo impianti corti) possano presentare percentuali di sopravvivenza e valori di riassorbimento osseo marginali simili a impianti di dimensioni standard (≥11 mm) inseriti contemporaneamente ad una grande rialzo di seno mascellare. Materiali e Metodi: in totale, 101 pazienti sono stati inclusi: 48 nel gruppo impianti corti e 53 nel gruppo seno. In ciascun paziente da 1 a 3 impianti sono stati inseriti e tenuti sommersi per 4-6 mesi. I parametri clinici e radiografici valutati sono: i fallimenti implantari, le complicazioni, lo stato dei tessuti molli, e il riassorbimento osseo marginale. Tutti i pazienti sono stati seguiti per almeno 3 anni dal posizionamento implantare. Risultati: il periodo di osservazione medio è stato di 43.47 ± 6.1 mesi per il gruppo impianti corti e 47.03 ± 7.46 mesi per il gruppo seno. Due su 101 impianti corti e 6 su 108 impianti standard sono falliti. Al follow-up finale, si è riscontrato un riassorbimento osseo medio di 0.47 ± 0.48 mm nel gruppo impianti corti versus 0.64 ± 0.58 mm nel gruppo seno. Non sono presenti differenze statisticamente significative fra i gruppi in termini di fallimenti implantari, complicazioni protesiche, tessuti molli, e riassorbimento osseo. Il gruppo seno ha presentato, invece, un maggior numero di complicazioni chirurgiche. Conclusioni: entrambe le tecniche hanno dimostrato un simile tasso di successo clinico e radiografico, ma gli impianti corti hanno ridotto il numero di complicazioni chirurgiche.
Resumo:
Scopo dello studio: valutare i cambiamenti indotti da diversi trattamenti di mordenzatura sulla morfologia superficiale e sulla microstruttura di due vetro-ceramiche a base disilicato di litio (IPS e.max® Press e IPS e.max® CAD) ed esaminarne gli effetti sia sull’adesione con un cemento resinoso che sulla resistenza alla flessione. Materiali e metodi: Settanta dischetti (12 mm di diametro, 2 mm di spessore) di ogni ceramica sono stati preparati e divisi in 5 gruppi: nessun trattamento (G1), HF 5% 20s (G2), HF 5% 60s (G3), HF 9.6% 20s (G4), HF 9.6% 60s (G5). Un campione per ogni gruppo è stato analizzato mediante profilometro ottico e osservato al SEM. Per gli altri campioni è stato determinato lo shear bond strength (SBS) con un cemento resinoso. Dopo l’SBS test, i campioni sono stati caricati fino a frattura utilizzando il piston-on-three-ball test per determinarne la resistenza biassiale alla flessione. Risultati: L’analisi morfologica e microstrutturale dei campioni ha rivelato come diversi trattamenti di mordenzatura producano delle modifiche nella rugosità superficiale che non sono direttamente collegate ad un aumento dei valori di adesione e dei cambiamenti microstrutturali che sono più rilevanti con l’aumento del tempo di mordenzatura e di concentrazione dell’acido. I valori medi di adesione (MPa) per IPS e.max® CAD sono significativamente più alti in G2 e G3 (21,28 +/- 4,9 e 19,55 +/- 5,41 rispettivamente); per IPS e.max® Press, i valori più elevati sono in G3 (16,80 +/- 3,96). La resistenza biassiale alla flessione media (MPa) è più alta in IPS e.max® CAD (695 +/- 161) che in IPS e.max® Press (588 +/- 117), ma non è non influenzata dalla mordenzatura con HF. Conclusioni: il disilicato di litio va mordenzato preferibilmente con HF al 5%. La mordenzatura produce alcuni cambiamenti superficiali e microstrutturali nel materiale, ma tali cambiamenti non ne influenzano la resistenza in flessione.
Resumo:
In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.
Resumo:
Il mercato agroalimentare sta conoscendo, soprattutto negli ultimi anni, una evoluzione sia dal punto di vista normativo sia legato alla crescente richiesta da parte dell’opinione pubblica di caratteristiche di trasparenza, tracciabilità e sostenibilità ambientale, economica e sociale. La sostenibilità della Food Supply Chain rappresenta una problematica di grande interesse in termini di ricadute di impatto ambientale e depauperamento delle risorse. L’obiettivo di fornire strumenti decisionali utili per tutti gli operatori della Food Supply Chain ha comportato lo sviluppo di specifiche metodologie e di supporto alle decisioni. L'introduzione di una maggiore integrazione tra gli attori coinvolti nella FSC può portare a migliorare la sostenibilità dei sistemi alimentari. Nel presente lavoro è stato preso in considerazione un caso concreto in cui si è analizzata la filiera dei prodotti ortofrutticoli afferenti al centro di distribuzione di una catena della GDO, con un focus sui prodotti trattati e destinati all’area della provincia di Ravenna. La mappatura dei flussi di provenienza e destinazione delle merci ha permesso di analizzare strutturalmente i canali dei fornitori. Le informazioni acquisite sono state implementate su un database per consentirne la modellizzazione e l’analisi quantitativa dei flussi di prodotto ortofrutticolo. I dati sono stai elaborati attraverso l’uso della piattaforma software che ha collocato nello spazio i vari nodi logistici in modo da calcolarne le distanze reciproche e pianificare gli itinerari di viaggio. In questo modo è stato possibile simulare ogni singola spedizione a partire dall’aggregazione della domanda alle singole missioni di consegna, tenendo in considerazione i mezzi di trasporto selezionati. La scelta di un particolare tipo di veicolo, la sua velocità, la capacità massima del mezzo in termini di kg e m3, ha determinato il numero di spedizioni. Su queste basi è stato possibile eseguire il calcolo dell’impatto ambientale della distribuzione logistica e formulare quindi ipotesi di sviluppo futuro.
Resumo:
Scopo dello studio: la cardiomiopatia aritmogena (CA) è conosciuta come causa di morte improvvisa, la sua relazione con lo scompenso cardiaco (SC) è stata scarsamente indagata. Scopo dello studio è la definizione della prevalenza e incidenza dello SC, nonché della fisiopatologia e delle basi morfologiche che conducono i pazienti con CA a SC e trapianto di cuore. Metodi: abbiamo analizzato retrospettivamente 64 pazienti con diagnosi di CA e confrontato i dati clinici e strumentali dei pazienti con e senza SC (NYHA III-IV). Abbiamo analizzato i cuori espiantati dei pazienti sottoposti a trapianto presso i centri di Bologna e Padova. Risultati: la prevalenza dello SC alla prima osservazione era del 14% e l’incidenza del 2,3% anno-persona. Sedici pazienti (23%) sono stati sottoposti a trapianto. I pazienti con SC erano più giovani all’esordio dei sintomi (46±16 versus 37±12 anni, p=0.04); il ventricolo destro (VD) era più dilatato e ipocinetico all’ecocardiogramma (RVOT 41±6 versus 37±7 mm, p=0.03; diametro telediastolico VD 38±11 versus 28±8 mm, p=0.0001; frazione di accorciamento 23%±7 versus 32%±11, p= 0.002). Il ventricolo sinistro (VS) era lievemente più dilatato (75±29 ml/m2 versus 60±19, p= 0.0017) e globalmente più ipocinetico (frazione di eiezione = 35%±14 versus 57%±12, p= 0.001). Il profilo emodinamico dei pazienti sottoposti a trapianto era caratterizzato da un basso indice cardiaco (1.8±0.2 l/min/m2) con pressione capillare e polmonare tendenzialmente normale (12±8 mmHg e 26±10 mmHg). L’analisi dettagliata dei 36 cuori dei pazienti trapiantati ha mostrato sostituzione fibro-adiposa transmurale nel VD e aree di fibrosi nel VS. Conclusioni: Nella CA lo SC può essere l’unico sintomo alla presentazione e condurre a trapianto un rilevante sottogruppo di pazienti. Chi sviluppa SC è più giovane, ha un interessamento del VD più severo accanto a un costante interessamento del VS, solo lievemente dilatato e ipocinetico, con sostituzione prevalentemente fibrosa.
Resumo:
Premesse: Gli eventi ischemici (EI) e le emorragie cerebrali (EIC) sono le più temute complicanze della fibrillazione atriale (FA) e della profilassi antitrombotica. Metodi: in 6 mesi sono stati valutati prospetticamente i pazienti ammessi in uno dei PS dell’area di Bologna con FA associata ad EI (ictus o embolia periferica) o ad EIC. Risultati: sono stati arruolati 178 pazienti (60 maschi, età mediana 85 anni) con EI. Il trattamento antitrombotico in corso era: a) antagonisti della vitamina K (AVK) in 31 (17.4%), INR all’ingresso: <2 in 16, in range (2.0-3.0) in 13, >3 in 2; b) aspirina (ASA) in 107 (60.1%); c) nessun trattamento in 40 (22.5%), soprattutto in FA di nuova insorgenza. Nei 20 pazienti (8 maschi; età mediana 82) con EIC il trattamento era: a)AVK in 13 (65%), INR in range in 11 pazienti, > 3 in 2, b) ASA in 6 (30%). La maggior parte degli EI (88%) ed EIC (95%) si sono verificati in pazienti con età > 70 anni. Abbiamo valutato l’incidenza annuale di eventi nei soggetti con età > 70 anni seguiti neo centri della terapia anticoagulante (TAO) e nei soggetti con FA stimata non seguiti nei centri TAO. L’incidenza annuale di EI è risultata 12% (95%CI 10.7-13.3) nei pazienti non seguiti nei centri TAO, 0.57% (95% CI 0.42-0.76) nei pazienti dei centri TAO ( RRA 11.4%, RRR 95%, p<0.0001). Per le EIC l’incidenza annuale è risultata 0.63% (95% CI 0.34-1.04) e 0.30% (95% CI 0.19-0.44) nei due gruppi ( RRA di 0.33%/anno, RRR del 52%/anno, p=0.040). Conclusioni: gli EI si sono verificati soprattutto in pazienti anziani in trattamento con ASA o senza trattamento. La metà dei pazienti in AVK avevano un INR sub terapeutico. L’approccio terapeutico negli anziani con FA deve prevedere un’ adeguata gestione della profilassi antitrombotica.
Resumo:
L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.
Resumo:
L’oggetto del lavoro si concentra sull’analisi in chiave giuridica del modello di cooperazione in rete tra le autorità nazionali degli Stati membri nel quadro dello Spazio LSG, allo scopo di valutarne il contributo, le prospettive e il potenziale. La trattazione si suddivide in due parti, precedute da una breve premessa teorica incentrata sull’analisi della nozione di rete e la sua valenza giuridica. La prima parte ricostruisce il percorso di maturazione della cooperazione in rete, dando risalto tanto ai fattori di ordine congiunturale quanto ai fattori giuridici e d’ordine strutturale che sono alla base del processo di retificazione dei settori giustizia e sicurezza. In particolare, vengono elaborati taluni rilievi critici, concernenti l’operatività degli strumenti giuridici che attuano il principio di mutuo riconoscimento e di quelli che danno applicazione al principio di disponibilità delle informazioni. Ciò allo scopo di evidenziare gli ostacoli che, di frequente, impediscono il buon esito delle procedure di cooperazione e di comprendere le potenzialità e le criticità derivanti dall’utilizzo della rete rispetto alla concreta applicazione di tali procedure. La seconda parte si focalizza sull’analisi delle principali reti attive in materia di giustizia e sicurezza, con particolare attenzione ai rispettivi meccanismi di funzionamento. La trattazione si suddivide in due distinte sezioni che si concentrano sulle a) reti che operano a supporto dell’applicazione delle procedure di assistenza giudiziaria e degli strumenti di mutuo riconoscimento e sulle b) reti che operano nel settore della cooperazione informativa e agevolano lo scambio di informazioni operative e tecniche nelle azioni di prevenzione e lotta alla criminalità - specialmente nel settore della protezione dell’economia lecita. La trattazione si conclude con la ricostruzione delle caratteristiche di un modello di rete europea e del ruolo che questo esercita rispetto all’esercizio delle competenze dell’Unione Europea in materia di giustizia e sicurezza.
Resumo:
OBIETTIVO : Quantificare le CECs/ml nei pazienti affetti da ischemia critica (IC) degli arti inferiori, eventuali correlazioni tra i fattori di rischio, lo stadio clinico con l’ aumento delle CECs. Valutare i cambiamenti strutturali (calcificazione ed infiltratto infiammatorio) e l’ angiogenesi (numero di capillari /sezione) della parete arteriosa. MATERIALI E METODI: Da Maggio 2006 ad Aprile 2008 in modo prospettico abbiamo arruolato paziente affetti da IC da sottoporre ad intervento chirurgico. In un data base abbiamo raccolto : caratteristiche demografiche, fattori di rischio, stadiazione dell'IC secondo Leriche-Fontaine (L-F), il tipo di intervento chirurgico. Per ogni paziente abbiamo effettuato un prelievo ematico di 2 ml per la quantificazione immunomagnetica delle CECs e prelievo di parete arteriosa. RISULTATI: In modo consecutivo abbiamo arruolato 33 pazienti (75.8% maschi) con età media di 71 aa (range 34-91aa), affetti da arteriopatia ostruttiva cronica periferica al IV stadio di L-F nel 84.8%, da cardiopatia ischemica cronica nel 60.6%, da ipertensione arteriosa nel 72.7% e da diabete mellito di II tipo nel 66.6%. Il valore medio di CECs/ml è risultato significativamente più elevato (p= 0.001) nei soggetti affetti da IC (CECs/ml =531.24 range 107- 3330) rispetto ai casi controllo (CECs/ml = 125.8 range 19-346 ). Le CECs/ml nei pazienti diabetici sono maggiori rispetto alle CECs/ml nei pazienti non diabetici ( 726.7 /ml vs 325.5/ml ), p< 0.05 I pazienti diabetici hanno presentato maggior incidenza di lesioni arteriose complesse rispetto ai non diabetici (66% vs 47%) e minor densità capillare (65% vs 87%). Conclusioni : Le CECs sono un marker sierologico attendibile di danno vascolare parietale, la loro quantità è maggiore nei pazienti diabetici e ipertesi. La minor capacità angiogenetica della parete arteriosa in presenza di maggior calcificazioni ed infiltrato infiammatorio nei diabetici, dimostra un danno istopatologico di parete maggiore .
Resumo:
La stima degli indici idrometrici in bacini non strumentati rappresenta un problema che la ricerca internazionale ha affrontato attraverso il cosiddetto PUB (Predictions on Ungauged Basins – IAHS, 2002-2013). Attraverso l’analisi di un’area di studio che comprende 61 bacini del Sud-Est americano, si descrivono e applicano due tecniche di stima molto diverse fra loro: il metodo regressivo ai Minimi Quadrati Generalizzati (GLS) e il Topological kriging (TK). Il primo considera una serie di fattori geomorfoclimatici relativi ai bacini oggetto di studio, e ne estrae i pesi per un modello di regressione lineare dei quantili; il secondo è un metodo di tipo geostatistico che considera il quantile come una variabile regionalizzata su supporto areale (l’area del bacino), tenendo conto della dislocazione geografica e l’eventuale struttura annidata dei bacini d’interesse. L’applicazione di questi due metodi ha riguardato una serie di quantili empirici associati ai tempi di ritorno di 10, 50, 100 e 500 anni, con lo scopo di valutare le prestazioni di un loro possibile accoppiamento, attraverso l’interpolazione via TK dei residui GLS in cross-validazione jack-knife e con differenti vicinaggi. La procedura risulta essere performante, con un indice di efficienza di Nash-Sutcliffe pari a 0,9 per tempi di ritorno bassi ma stazionario su 0,8 per gli altri valori, con un trend peggiorativo all’aumentare di TR e prestazioni pressoché invariate al variare del vicinaggio. L’applicazione ha mostrato che i risultati possono migliorare le prestazioni del metodo GLS ed essere paragonabili ai risultati del TK puro, confermando l’affidabilità del metodo geostatistico ad applicazioni idrologiche.
Resumo:
L'esame clinico della palpazione manuale dei tessuti è ancora oggi l'indagine preliminare più diffusa per l'identificazione e la diagnosi delle lesioni superficiali. L'esame è infatti in grado di fornire al medico esaminatore una valutazione qualitativa circa le proprietà meccaniche dei tessuti indagati, in particolare per quanto concerne la rigidità. I limiti fondamentali e intrinseci della palpazione sono l'impossibilità di raggiungere i tessuti in profondità, limitando quindi l'analisi agli elementi anatomici superficiali, e la grandezza delle lesioni rilevabili. L'elastografia si inserisce in tale contesto come strumento diagnostico in grado di valutare le proprietà meccaniche dei tessuti in funzione della profondità, con una risoluzione spaziale non ottenibile attraverso la semplice palpazione. L'elastosonografia rappresenta la metodologia elastografica attualmente più diffusa, caratterizzata da numerose tecnologie specializzate nell'indagine di diversi elementi anatomici. Il vantaggio fondamentale dell'elastosonografia rispetto ad altre metodiche come l'elastografia a risonanza magnetica o l'elastografia tattile risiede nell'integrazione efficace con la tradizionale indagine ecografica. L'elaborato si pone l'obiettivo di descrivere e valutare le varianti implementative dell'elastosonografia e la loro efficacia come strumento diagnostico. La prima parte (parte I) riassume i concetti fondamentali alla base dell'indagine ecografica, fornendo le nozioni teoriche ed un contesto adeguato alla comprensione dell'elastosonografia. Entrambe le indagini sono infatti basate principalmente sull'emissione e ricezione di ultrasuoni. La parte centrale (parte II) dell'elaborato analizza le principali tecniche elastosonografiche attualmente esistenti. I metodi descritti, a prescindere dal principio di funzionamento specifico, sono accomunati dalla medesima dinamica fondamentale che comprende una eccitazione meccanica del tessuto e l'osservazione della relativa risposta, per fornire una misura qualitativa o quantitativa della rigidità del tessuto in esame. L'ultima parte (parte III) analizza alcuni casi applicativi di particolare rilevanza, soffermandosi sulla valutazione dal punto di vista statistico del contributo fornito dalla specifica tecnica elastosonografica rispetto alle indagini tradizionali.
Resumo:
Il sistema comune europeo dell’imposta sul valore aggiunto privilegia caratteri e finalità economiche nel definire chi siano gli operatori economici soggetti all’IVA. Una disciplina particolare è, tuttavia, prevista per i soggetti di diritto pubblico che, oltre alla principale attività istituzionale, esercitano un’attività di carattere economico. Ai sensi dell’articolo 13 della Direttiva del 28 novembre 2006, 2006/112/CE, gli Stati, le Regioni, le Province, i Comuni e gli altri enti di diritto pubblico, in relazione alle attività ed operazioni che essi effettuano in quanto pubbliche autorità, non sono considerati soggetti passivi IVA anche se in relazione ad esse percepiscono diritti, canoni, contributi o retribuzioni. La vigente disciplina europea delle attività economiche esercitate dagli enti pubblici, oltre che inadeguata al contesto economico attuale, rischia di diventare un fattore che influenza negativamente l’efficacia del modello impositivo dell’IVA e l’agire degli enti pubblici. La tesi propone un modello alternativo che prevede l’inversione dell’impostazione attuale della Direttiva IVA al fine di considerare, di regola, soggetti passivi IVA gli organismi pubblici che svolgono - ancorché nella veste di pubblica autorità - attività oggettivamente economiche.