1000 resultados para compressibilità edometro sabbia sabbie granulometria limiti di Atterberg
Resumo:
Questa tesi tratta nello specifico lo studio di un impianto micro-ORC, capace di sfruttare acqua alla temperatura di circa 70-90°C come sorgente termica. Questo sistema presenta una potenza dichiarata dal costruttore pari a 3kW e un rendimento del 9%. In primo luogo, si descrivono le caratteristiche principali dei fluidi organici, in particolare quelle del freon R134a, impiegato nel banco prova. Vengono illustrati dettagliatamente l’impianto e la sensoristica utilizzata per le misurazioni delle varie grandezze fisiche. Tramite esse, con l’utilizzo di un programma di acquisizione dati appositamente relizzato in ambiente LabVIEW, è stato possibile calcolare in tempo reale tutti i parametri di funzionamento, necessari per la caratterizzazione del sistema. Per una veloce ed efficiente elaborazione dei dati registrati durante le prove in laboratorio, è stato realizzato un programma in linguaggio VBA. L’utilizzo di questo codice ha permesso, in primo luogo, di individuare e correggere eventuali errori di calcolo e acquisizione presenti in ambiente LabVIEW e, in secondo luogo, si è reso indispensabile per comprendere il funzionamento dell’impianto nelle varie fasi, come accensione, spegnimento e produzione di potenza. Sono state inoltre identificate le modalità di risposta del sistema al variare dei comandi impostabili dall’utente, quali il numero di giri della pompa e la variazione della temperatura della sorgente calda. Si sono poi osservate le risposte del sistema al variare delle condizioni esterne, come ad esempio la temperatura dell’acqua di condensazione. Una specifica prova è stata analizzata in questo elaborato. Durante tale prova il sistema ha lavorato in forte off-design, erogando una potenza elettrica pari a 255 W, raggiungendo un basso valore del rendimento (pari a 1.8%). L’analisi dei dati ha portato ad identificare nuovi limiti di funzionamento, legati ad esempio alla quantità di fluido interna al sistema.
Resumo:
Nell'elaborato, dopo una breve descrizione di come vengono suddivise le macchine elettriche a seconda che vi siano o meno parti in movimento al loro interno, vengono esaminati inizialmente gli aspetti teorici che riguardano le macchine sincrone a poli lisci ed a poli salienti prendendo in esame anche quelli che sono i provvedimenti necessari a ridurre il contributo dei campi armonici di ordine superiore. Per questo tipo di macchine, spesso utilizzate in centrale per la pruduzione dell'energia elettrica, risultano di fondamentale importanza le curve a "V" e le curve di "Capability". Esse sono strumenti che permettono di valutare le prestazioni di tali macchine una volta che siano noti i dati di targa delle stesse. Lo scopo della tesi è pertanto quello di sviluppare un software in ambiente Matlab che permetta il calcolo automatico e parametrico di tali curve al fine di poter ottimizzare la scelta di una macchina a seconda delle esigenze. Nel corso dell'eleaborato vengono altresì proposti dei confronti su come varino tali curve, e pertanto i limiti di funzionamento ad esse associati, al variare di alcuni parametri fondamentali come il fattore di potenza, la reattanza sincrona o, nel caso di macchine a poli salienti, il rapporto di riluttanza. Le curve di cui sopra sono state costruite a partire da considerazioni fatte sul diagramma di Behn-Eschemburg per le macchine isotrope o sul diagramma di Arnold e Blondel per le macchine anisotrope.
Resumo:
Secondo la sismologia storica, Venezia non è mai stata colpita in modo diretto da terremoti nel suo immediato sottosuolo, tuttavia ha riportato diversi danni in occasione di terremoti limitrofi. Nella presente tesi è stato studiato il comportamento sotto sisma di due principali opere veneziane: il ponte degli Scalzi (1934) eretto da E. Miozzi e il ponte della Costituzione (2008), disegnato da S. Calatrava. Accoppiando il modello dinamico dei due ponti con lo spettro di risposta del sito, abbiamo riscontrato che il ponte della Costituzione si colloca nel plateau dello spettro, quindi a periodi per i quali l’accelerazione attesa sulla struttura è massima. Questo non depone a favore della sua sicurezza, considerati anche i problemi statici che la struttura presenta. Il ponte degli Scalzi presenta invece una rigidezza tale da non mostrare amplificazione significativa tra il moto alla fondazione e quello della struttura sovrastante. Le misure di microtremore ambientale effettuate sul sottosuolo in prossimità delle fondazioni dei due ponti hanno mostrato che esso amplifica il moto per risonanza a 0.5 Hz. Questa frequenza è sufficientemente lontana da quelle proprie dei due ponti in esame, per cui si può ritenere che non ne influenzi significativamente la dinamica. Infine, abbiamo osservato che i valori di accelerazione verticale misurati sulla sua sommità del ponte della Costituzione, generati principalmente dal traffico pedonale, superano i limiti di comfort proposti dall’Eurocodice EN UNI 1990.
Resumo:
Al giorno d’oggi, il primo obiettivo dell’industria automotive è quello di ridurre il consumo di carburante e migliorare la qualità del processo di combustione, al fine di soddisfare i limiti di emissioni imposti, senza penalizzare le performance dei motori. In questo scenario, il comportamento dinamico dello spray gioca un ruolo cruciale, ed è risaputo che esso dipenda anche dal processo di cavitazione all’interno di ogni singolo foro iniettore. L’appropriata predizione dello sviluppo di tale fenomeno è fondamentale per comprendere e controllare le caratteristiche delle spray nei canali iniettori e consentire una più accurata progettazione degli iniettori. In questo meccanismo, le simulazioni CFD ricoprono un ruolo di grande importanza, a causa delle dimensioni ridotte caratteristiche dei fori iniettori. Questi infatti non risultano spesso adatti ad un’analisi sperimentale dettagliata e precisa, e nel caso lo fossero, la valutazione è limitata a pochi casi, essendo le attività sperimentali complesse ed onerose. L’analisi computazionale presenta quindi vantaggi come una sostanziale riduzione del tempo e dei costi impiegati, non richiedendo infatti la costruzione e l’utilizzo di impianti appositi o prototipi. Lo scopo principale di questo progetto consiste nella validazione di un codice CFD capace di modellare la cavitazione, al fine di applicarlo successivamente ad un iniettore reale. Tale modello è stato validato tramite confronto con dati sperimentali su un flusso cavitante attraverso un ugello ideale. Tra tutti i software commerciali disponibili, è stato scelto CONVERGE poiché innovativo nella generazione automatica della griglia e dettagliato nell’analisi chimica, permettendo di gestire geometrie di motori molto complesse. È stato quindi ritenuto appropriato valutare la validità di tale codice nella modellazione della cavitazione, poiché potrebbe dimostrarsi rilevante nello studio futuro dei motori a combustione interna.
Resumo:
Negli ultimi anni le preoccupazioni a causa dell’inquinamento ambientale sono risultate sempre maggiori, questo ha portato un sempre più crescente interesse per l’ottimizzazione nella progettazione dei motori a combustione interna per avere un aumento di potenza cercando di utilizzare meno carburante. Sempre più di frequente, al fine di studiare la combustione in modo accurato e ricavarne modelli analitici coerenti con la realtà, ci si rivolge alla simulazione numerica; Tutti i modelli di combustione utilizzati dai solutori CFD richiedono la conoscenza della velocità laminare di fiamma, questa gioca un ruolo molto importante nei motori a combustione interna così come in altre applicazioni, come il calcolo dei moti turbolenti. Il calcolo della velocità laminare può avvenire attraverso modelli di cinetica chimica dettagliata a fronte di un peso computazionale non indifferente oppure utilizzando meccanismi cinetici ridotti con conseguente perdita di accuratezza. L’obiettivo di questa tesi è lo studio della velocità di fiamma laminare al variare delle principali caratteristiche della miscela focalizzandosi sull’effetto di pressione, temperatura e di eventuali inerti (Acqua ed Egr). Attraverso la cinetica chimica dettagliata e relativo calcolo delle velocità delle reazioni di ossidazione sono state definite delle “look up tables” il più possibile dettagliate (nonostante il grande peso computazionale) al fine di avere uno strumento facilmente implementabile in solutori CFD. Inoltre, a partire dai dati acquisiti, si è passati all’analisi delle precedenti correlazioni cercando, nei limiti, di migliorarne e proporne altre per non dover ricorrere all’interpolazione delle mappe.
Resumo:
Disegno di studio. Revisione sistematica. Background:il Disturbo di Panico è una condizione clinica invalidante associata a numerose comorbidità, ad un aumentato rischio di suicidio e ad alti livelli di disabilità sociale, professionale e fisica. L’esordio è in età giovanile. Spesso la cura di questi soggetti è esclusivamente affidata ai processi assistenziali di medici o assistenti sociali. La terapia utilizzata è quella cognitivo-comportamentale e nei casi più gravi farmacologica, ma l’esercizio fisico rappresenta una modalità terapeutica a basso rischio e a basso costo che potrebbe essere utile nel trattamento. Obiettivi:valutare l’effetto dell’esercizio fisico nel trattamento di pazienti con Disturbo di Panico. Tale indagine si pone l’obiettivo di verificarne l’efficacia rispetto ad altre terapie e ricercarne il tipo e modalità più valida. Materiali e metodi:la ricerca bibliografica è stata condotta sulle banche dati PubMed, PEDro, Cinahl e The Cochrane Library nel mese di Settembre 2020, senza porre limiti di lingua, anno di pubblicazione, sesso o età dei partecipanti. Sono stati inclusi Trial Clinici e RCT che indagassero l’efficacia dell’esercizio fisico nei pazienti con Disturbo di Panico. Risultati: sono stati individuati 8 studi, la cui qualità metodologica è stata valutata con la scala PEDro. Essi analizzano l’esercizio fisico sia come singolo intervento, confrontato al trattamento tradizionale, sia come integrazione ad altre terapie di provata efficacia per verificarne l’utilità. Conclusioni: nonostante l’eterogeneità degli studi analizzati emerge l’efficacia di un programma di allenamento di attività aerobica intensa come terapia per i pazienti con Disturbo di Panico, che può essere integrata a comprovati trattamenti farmacologici o cognitivo-comportamentali. Future ricerche dovrebbero indagare l’efficacia dell’esercizio nel lungo termine e definire protocolli nuovi e specifici utili nella pratica clinica.
Resumo:
La costante ricerca e lo sviluppo nel campo degli azionamenti e dei motori elettrici hanno portato ad una loro sempre maggiore applicazione ed utilizzo. Tuttavia, la crescente esigenza di sistemi ad alta potenza sempre più performanti da una parte ha evidenziato i limiti di certe soluzioni, dall’altra l’affermarsi di altre. In questi sistemi, infatti, la macchina elettrica trifase non rappresenta più l’unica soluzione possibile: negli ultimi anni si è assistito ad una sempre maggiore diffusione di macchine elettriche multifase. Grazie alle maggiori potenzialità che sono in grado di offrire, per quanto alcune di queste siano ancora sconosciute, risultano già essere una valida alternativa rispetto alla tradizionale controparte trifase. Sicuramente però, fra le varie architetture multifase, quelle multi-trifase (ovvero quelle con un numero di fasi multiplo di tre) rappresentano una soluzione particolarmente vantaggiosa in ambito industriale. Infatti, se impiegate all’interno di architetture multifase, la profonda conoscenza dei tradizionali sistemi trifase consente di ridurre i costi ed i tempi legati alla loro progettazione. In questo elaborato la macchina elettrica multi-trifase analizzata è una macchina sincrona esafase con rotore a magneti permanenti superficiali. Questa particolare tipologia di macchina elettrica può essere modellizzata attraverso due approcci completamente differenti: uno esafase ed uno doppio trifase. Queste possibilità hanno portato molti ricercatori alla ricerca della migliore strategia di controllo per questa macchina. L’obiettivo di questa tesi è di effettuare un’analisi comparativa tra tre diverse strategie di controllo applicate alla stessa macchina elettrica multi-trifase, analizzandone la risposta dinamica in diverse condizioni di funzionamento.
Resumo:
Presso il depuratore di Corporeno, Comune di Cento (FE), si sono verificati dei superamenti dei limiti di legge per l’Azoto totale, Nitrico e Ammoniacale nei campioni di reflui in uscita. La società di gestione del depuratore ha iniziato a regolare il tenore di ossigeno in vasca di ossinitrificazione mediante il monitoraggio del potenziale Redox. Dall’analisi dei dati di monitoraggio e dai risultati delle analisi chimiche sui reflui in ingresso e uscita dall’impianto, si è evidenziato che tale operazione ha consentito di migliorare le prestazioni dell’impianto, tuttavia la modalità di gestione delle soffianti in vasca di ossinitrificaizione non consente un pieno controllo delle concentrazioni in uscita. Lo studio di alcune pubblicazioni (in particolare Charpentier et al. 1998 e Hao e Huang, 1996) ha consentito di individuare una metodologia di controllo dei processi in vasca che si basa sia sul potenziale di ossidoriduzione che sul pH, oltre alla concentrazione di ossigeno. L’analisi di alcuni dati di monitoraggio in continuo ha evidenziato una crisi del processo di denitrificazione. Si sono individuate tre differenti strategie di mitigazione della problematica: uno studio e sperimentazione sia in laboratorio che in vera grandezza per definire un sistema di monitoraggio real time dell’accensione delle soffianti basato sulla curva di Hao e Huang (1996), una modifica all’impianto che preveda il corretto ricircolo dalla miscela areata alle vasche di predenitrificazione, che allo stato attuale non stanno funzionando a regime ed infine una valutazione rispetto alla necessità di integrazione con fonte di carbonio esterna, in quanto i valori di BOD in ingresso potrebbero essere limitanti per la denitrificazione.
Resumo:
In questo lavoro di tesi è stato approfondito il modello di coalescenza, ampiamente utilizzato in letteratura per descrivere la formazione di (anti)nuclei leggeri in collisioni ad alta energia negli acceleratori e di antinuclei cosmici, con applicazioni alle ricerche indirette di materia oscura nell’universo. Nello specifico, è stato studiato il parametro di coalescenza per (anti)nuclei con numero di massa A ≤ 4; utilizzando un fit ai dati dell’esperimento ALICE a LHC sulla dimensione della sorgente di protoni in collisioni pp a √s = 13 TeV, si è cercato di esplicitare la dipendenza del parametro di coalescenza dall’impulso trasverso. Dal confronto delle previsioni del modello così ottenuto con le misure del parametro di coalescenza raccolte da ALICE, si osserva che il parametro di coalescenza di d e 3He non segue l’andamento previsto. Questo risultato evidenzia quindi la necessità di rivedere il modello di sorgente adottato o i suoi limiti di applicazione a diversi sistemi di collisione. In vista della possibilità di implementare il meccanismo di formazione per coalescenza nei generatori Monte Carlo per la simulazione degli antinuclei, si è tentato di caratterizzare la sorgente di protoni attraverso l’utilizzo del generatore PYTHIA 8.3. In particolare, è stata effettuata un’analisi delle coordinate spaziali, della quantità di moto e del tempo di produzione dei protoni a rapidità centrale generati in 10^5 collisioni pp. I grafici ottenuti mostrano che la sorgente è sostanzialmente isotropa.
Resumo:
La tesi sperimentale svolta presso IZSLER (Istituto Zooprofilattico Sperimentale della Lombardia e dell’Emilia Romagna) tratta la migrazione di sostanze dai MOCA (Materiali ed Oggetti a Contatto con gli Alimenti) in materiale plastico agli alimenti, in un’ottica di sicurezza alimentare. In particolare, ci si è concentrati sul rilascio di metalli e semimetalli (rispettivamente 17 e 2) nell’acqua minerale naturale confezionata in bottiglie in PET (Polietilene Tereftalato). Si sono presi in considerazione 14 marchi commerciali di acqua. In particolare, si sono studiate le variabili tempo e radiazione solare per comprendere se queste avessero effetto sul rilascio di tali metalli e semimetalli e in che misura potessero influenzarlo. Due gruppi di bottiglie, ciascuno composto dagli stessi marchi commerciali di acqua minerale naturale, sono stati posizionati e stoccati per un periodo di 8 mesi in differenti condizioni. Un gruppo è stato collocato in un armadio, al buio a temperatura ambiente, mentre l’altro è stato posizionato in ambiente esterno, esposto ai raggi UV e alle temperature ambientali. Le analisi, eseguite mediante strumentazione ICP-MS (Inductively Coupled Plasma-Mass Spectrometry), sono state svolte direttamente sull’acqua imbottigliata, all'inizio e al termine del periodo di stoccaggio, per entrambi i gruppi di campioni. È stato valutato il rilascio, per singolo elemento e per marchio commerciale, considerando le due differenti modalità di conservazione (buio e luce). I risultati ottenuti sono stati confrontati con i Limiti di Migrazione Specifica (LMS) indicata dalla normativa (Reg. (UE) 10/2011 e successive modifiche) per comprendere se i campioni analizzati risultassero conformi o meno, e sono stati commentati anche in relazione a quanto noto dalla letteratura scientifica. Un focus specifico è stato dedicato al caso dell’antimonio.
Resumo:
La perfusione ex-vivo, ossia dopo il prelievo e prima del trapianto, degli organi si afferma come una delle possibili strategie per superare il divario esistente tra il numero dei pazienti in lista d’attesa e il numero degli organi disponibili e idonei al trapianto. Questo divario ha portato alla necessità di includere tra i donatori anche quelli marginali (anziani, con comorbidità, con cause di morte come l’arresto cardiaco e tempi di ischemia), fino ad oggi considerati non trapiantabili. L’utilizzo di questi organi ha messo in evidenza alcuni limiti di quella che, ad oggi, è stata considerata la tecnica di riferimento per la preservazione ex-vivo degli organi: la conservazione statica ipotermica che risulta, infatti, efficace per gli organi ottimali, mentre per quelli più compromessi, sembra accentuare di più il danno d’organo e incrementare il rischio di fallimento o di complicazioni. Si sono, perciò, affermate tecniche di conservazione dinamica per poter conservare gli organi in un ambiente simil-fisiologico, limitando i tempi di ischemia, valutandone la funzionalità ed eventualmente applicando dei trattamenti terapeutici. I diversi protocolli di perfusione sono stati implementati in numerosi sistemi per l’esecuzione dei trattamenti di perfusione ex-vivo. Essi differiscono principalmentente per la modalità termica eseguita: ipotermia (4-12°C), midtermia (13-24°C), subnormotermia (25-35°C), normotermia (35-37°C) o modalità combinate: tanto più la temperatura si avvicina a quella del corpo, tanto più occorre ricreare un ambiente fisiologico per l’organo. L’analisi delle unità termiche costituenti i sistemi di perfusione dei reni e fegati disponibili ha messo in evidenza i principali limiti e vantaggi di ogni soluzione adottata. Risulta evidente che una gestione ideale della termoregolazione constente di coprire i più vasti intervalli di temperatura, di combinare le diverse modalità, senza complicazioni esecutive e con limitati interventi da parte dell’operatore.
Resumo:
Il presente caso di studio prende forma da una problematica su una metodologia di stampa 3D relativamente nuova, la tecnologia PolyJet. Nella tesi, si verificano ed osservano i limiti di fabbricazione dei modelli ottenuti da questo processo di stampa, dovuti al particolare materiale di supporto che utilizza la tecnologia medesima a differenza di altre tecnologie esistenti. Nei dettagli, si è deciso di stampare dei particolari provini costituiti da strutture porose interconnesse, ottenute tramite superfici TPMS (Triply Periodical Minimal Surfaces), caratterizzate da fori molto piccoli e profondi ed osservare la facilità o la difficoltà nel rimuovere il materiale di supporto da ognuno di essi attraverso le attrezzature disponibili in laboratorio. I risultati ottenuti dall’esperimento hanno mostrato che, riducendo sempre di più i fori delle strutture dei provini, si va a complicare l’azione di rimozione del materiale di supporto, rendendo il processo difficile da compiere come nell’ultimo provino realizzato. Si evince che, nei tre casi osservati, è possibile rimuovere tutto il materiale di supporto dalle strutture, anche nell’ultimo manufatto, con fori di dimensione di un millimetro.
Resumo:
L'obiettivo del presente lavoro di tesi è stato quello di valutare l'evoluzione del colore e dell'aspetto visivo di fettine di fesa di tacchino confezionate in atmosfera ordinaria con il film protettivo (stretching) nel corso della conservazione refrigerata, protratta fino a 13 giorni. A tale scopo, è stato considerato un totale di 61 lotti di tacchini (femmine, alimentazione vegetale) allevati nell’anno 2021 e 2022 e macellati in condizioni commerciali. Da ciascun lotto sono state preparate in totale 30 confezioni di fesa a fettine che sono state confezionate in atmosfera ordinaria e conservate in regime di refrigerazione (0-1°C) illuminate con luce a neon. I campioni sono stati destinati a misurazione del colore e valutazione dell’aspetto visivo (brillantezza e uniformità) trascorsi tre intervalli di tempo (T1:0-5; T2:6-9; T3:10-13) considerando sia la zona a diretto contatto con il film protettivo che quella non a contatto. I risultati ottenuti sono stati elaborati mediante ANOVA ad un criterio di classificazione per verificare l’effetto esplicato dalla conservazione refrigerata sul colore delle carni. Inoltre, nell’ambito del medesimo tempo di conservazione, lo stesso modello statistico è stato applicato per verificare l’effetto determinato dal contatto o meno con il film protettivo sul colore mentre i risultati relativi ai parametri “brillantezza” e “uniformità” sono stati elaborati mediante Chi-quadro (p<0,05). Dai risultati ottenuti si evince come la conservazione refrigerata abbia determinato un aumento della luminosità e dell’indice di giallo associato ad una riduzione dell’indice di rosso. Anche per quanto concerne i parametri di “uniformità” e “brillantezza”, la conservazione refrigerata ha determinato un peggioramento dell’aspetto visivo dei campioni. In conclusione, i risultati ottenuti potrebbero essere utilizzati per definire strumentalmente limiti di accettabilità per le fettine di tacchino confezionate.
Resumo:
Pós-graduação em Direito - FCHS
Resumo:
Introduzione L’importanza clinica, sociale ed economica del trattamento dell’ipertensione arteriosa richiede la messa in opera di strumenti di monitoraggio dell’uso dei farmaci antiipertensivi che consentano di verificare la trasferibilità alla pratica clinica dei dati ottenuti nelle sperimentazioni. L’attuazione di una adatta strategia terapeutica non è un fenomeno semplice da realizzare perché le condizioni in cui opera il Medico di Medicina Generale sono profondamente differenti da quelle che si predispongono nell’esecuzione degli studi randomizzati e controllati. Emerge, pertanto, la necessità di conoscere le modalità con cui le evidenze scientifiche trovano reale applicazione nella pratica clinica routinaria, identificando quei fattori di disturbo che, nei contesti reali, limitano l’efficacia e l’appropriatezza clinica. Nell’ambito della terapia farmacologica antiipertensiva, uno di questi fattori di disturbo è costituito dalla ridotta aderenza al trattamento. Su questo tema, recenti studi osservazionali hanno individuato le caratteristiche del paziente associate a bassi livelli di compliance; altri hanno focalizzato l’attenzione sulle caratteristiche del medico e sulla sua capacità di comunicare ai propri assistiti l’importanza del trattamento farmacologico. Dalle attuali evidenze scientifiche, tuttavia, non emerge con chiarezza il peso relativo dei due diversi attori, paziente e medico, nel determinare i livelli di compliance nel trattamento delle patologie croniche. Obiettivi Gli obiettivi principali di questo lavoro sono: 1) valutare quanta parte della variabilità totale è attribuibile al livello-paziente e quanta parte della variabilità è attribuibile al livello-medico; 2) spiegare la variabilità totale in funzione delle caratteristiche del paziente e in funzione delle caratteristiche del medico. Materiale e metodi Un gruppo di Medici di Medicina Generale che dipendono dall’Azienda Unità Sanitaria Locale di Ravenna si è volontariamente proposto di partecipare allo studio. Sono stati arruolati tutti i pazienti che presentavano almeno una misurazione di pressione arteriosa nel periodo compreso fra il 01/01/1997 e il 31/12/2002. A partire dalla prima prescrizione di farmaci antiipertensivi successiva o coincidente alla data di arruolamento, gli assistiti sono stati osservati per 365 giorni al fine di misurare la persistenza in trattamento. La durata del trattamento antiipertensivo è stata calcolata come segue: giorni intercorsi tra la prima e l’ultima prescrizione + proiezione, stimata sulla base delle Dosi Definite Giornaliere, dell’ultima prescrizione. Sono stati definiti persistenti i soggetti che presentavano una durata del trattamento maggiore di 273 giorni. Analisi statistica I dati utilizzati per questo lavoro presentano una struttura gerarchica nella quale i pazienti risultano “annidati” all’interno dei propri Medici di Medicina Generale. In questo contesto, le osservazioni individuali non sono del tutto indipendenti poiché i pazienti iscritti allo stesso Medico di Medicina Generale tenderanno ad essere tra loro simili a causa della “storia comune” che condividono. I test statistici tradizionali sono fortemente basati sull’assunto di indipendenza tra le osservazioni. Se questa ipotesi risulta violata, le stime degli errori standard prodotte dai test statistici convenzionali sono troppo piccole e, di conseguenza, i risultati che si ottengono appaiono “impropriamente” significativi. Al fine di gestire la non indipendenza delle osservazioni, valutare simultaneamente variabili che “provengono” da diversi livelli della gerarchia e al fine di stimare le componenti della varianza per i due livelli del sistema, la persistenza in trattamento antiipertensivo è stata analizzata attraverso modelli lineari generalizzati multilivello e attraverso modelli per l’analisi della sopravvivenza con effetti casuali (shared frailties model). Discussione dei risultati I risultati di questo studio mostrano che il 19% dei trattati con antiipertensivi ha interrotto la terapia farmacologica durante i 365 giorni di follow-up. Nei nuovi trattati, la percentuale di interruzione terapeutica ammontava al 28%. Le caratteristiche-paziente individuate dall’analisi multilivello indicano come la probabilità di interrompere il trattamento sia più elevata nei soggetti che presentano una situazione clinica generale migliore (giovane età, assenza di trattamenti concomitanti, bassi livelli di pressione arteriosa diastolica). Questi soggetti, oltre a non essere abituati ad assumere altre terapie croniche, percepiscono in minor misura i potenziali benefici del trattamento antiipertensivo e tenderanno a interrompere la terapia farmacologica alla comparsa dei primi effetti collaterali. Il modello ha inoltre evidenziato come i nuovi trattati presentino una più elevata probabilità di interruzione terapeutica, verosimilmente spiegata dalla difficoltà di abituarsi all’assunzione cronica del farmaco in una fase di assestamento della terapia in cui i principi attivi di prima scelta potrebbero non adattarsi pienamente, in termini di tollerabilità, alle caratteristiche del paziente. Anche la classe di farmaco di prima scelta riveste un ruolo essenziale nella determinazione dei livelli di compliance. Il fenomeno è probabilmente legato ai diversi profili di tollerabilità delle numerose alternative terapeutiche. L’appropriato riconoscimento dei predittori-paziente di discontinuità (risk profiling) e la loro valutazione globale nella pratica clinica quotidiana potrebbe contribuire a migliorare il rapporto medico-paziente e incrementare i livelli di compliance al trattamento. L’analisi delle componenti della varianza ha evidenziato come il 18% della variabilità nella persistenza in trattamento antiipertensivo sia attribuibile al livello Medico di Medicina Generale. Controllando per le differenze demografiche e cliniche tra gli assistiti dei diversi medici, la quota di variabilità attribuibile al livello medico risultava pari al 13%. La capacità empatica dei prescrittori nel comunicare ai propri pazienti l’importanza della terapia farmacologica riveste un ruolo importante nel determinare i livelli di compliance al trattamento. La crescente presenza, nella formazione dei medici, di corsi di carattere psicologico finalizzati a migliorare il rapporto medico-paziente potrebbe, inoltre, spiegare la relazione inversa, particolarmente evidente nella sottoanalisi effettuata sui nuovi trattati, tra età del medico e persistenza in trattamento. La proporzione non trascurabile di variabilità spiegata dalla struttura in gruppi degli assistiti evidenzia l’opportunità e la necessità di investire nella formazione dei Medici di Medicina Generale con l’obiettivo di sensibilizzare ed “educare” i medici alla motivazione ma anche al monitoraggio dei soggetti trattati, alla sistematica valutazione in pratica clinica dei predittori-paziente di discontinuità e a un appropriato utilizzo della classe di farmaco di prima scelta. Limiti dello studio Uno dei possibili limiti di questo studio risiede nella ridotta rappresentatività del campione di medici (la partecipazione al progetto era su base volontaria) e di pazienti (la presenza di almeno una misurazione di pressione arteriosa, dettata dai criteri di arruolamento, potrebbe aver distorto il campione analizzato, selezionando i pazienti che si recano dal proprio medico con maggior frequenza). Questo potrebbe spiegare la minore incidenza di interruzioni terapeutiche rispetto a studi condotti, nella stessa area geografica, mediante database amministrativi di popolazione. Conclusioni L’analisi dei dati contenuti nei database della medicina generale ha consentito di valutare l’impiego dei farmaci antiipertensivi nella pratica clinica e di stabilire la necessità di porre una maggiore attenzione nella pianificazione e nell’ottenimento dell’obiettivo che il trattamento si prefigge. Alla luce dei risultati emersi da questa valutazione, sarebbe di grande utilità la conduzione di ulteriori studi osservazionali volti a sostenere il progressivo miglioramento della gestione e del trattamento dei pazienti a rischio cardiovascolare nell’ambito della medicina generale.