919 resultados para CRT, Elettrocatetere quadripolare, PNS, Vettore di stimolazione, Pacing, Sensing, Non-responder
Resumo:
Pochi sono i dati disponibili sul decorso clinico della malattia di Crohn del colon severa(CD). L'obiettivo è quello di descrivere il decorso clinico della colite di Crohn severa (CC) in una coorte di pazienti isolata con CD del colon o ileocolica, e di confrontarlo con il decorso clinico di pazienti affetti da colite ulcerosa severa (UC). 34 pazienti con CC severa sono stati identificati retrospettivamente nella nostra coorte di 593 pazienti ricoverati (2003-2012) attraverso la valutazione di CDAI score e HBI. 169 pazienti con UC severa sono stati identificati retrospettivamente in una coorte di 449 pazienti ricoverati (2003-2012) attraverso la valutazione del score di Lichtiger e di Truelove-Witts. Abbiamo valutato questi risultati: risposta agli steroidi, risposta ai farmaci biologici, tasso di colectomia acuta, tasso di colectomia durante il follow-up, megacolon e tasso di infezione da citomegalovirus. Non abbiamo trovato differenze significative nella risposta agli steroidi e biologici, della percentuale di infezione da citomegalovirus e di megacolon, mentre il tasso di colectomia in acuto è risultato essere maggiore nei pazienti con CC rispetto ai pazienti con UC; anche la differenza tra i tassi di colectomia alla fine del follow-up è risultata non significativa. Con l'analisi univariata la giovane età alla diagnosi è associata ad un aumentato rischio di colectomia in assoluto (p = 0,024) e in elezione (p = 0.022), ma non in acuto. Il tasso globale di colectomia nei pazienti con CC severa è superiore a quella dei pazienti con UC severa , ma questo dato non è supportato da una diversa risposta clinica alla terapia steroidea o terapia di salvataggio con biologici. Il vero decorso clinico della colite di Crohn severa necessita di essere chiarito da studi prospettici che includano un numero maggiore di pazienti con questo sottogruppo di malattia.
Resumo:
La Cognitive Radio è un dispositivo in grado di reagire ai cambiamenti dell’ambiente radio in cui opera, modificando autonomamente e dinamicamente i propri parametri funzionali tra cui la frequenza, la potenza di trasmissione e la modulazione. Il principio di base di questi dispositivi è l’accesso dinamico alle risorse radio potenzialmente non utilizzate, con cui utenti non in possesso di licenze possono sfruttare le frequenze che in un determinato spazio temporale non vengono usate, preoccupandosi di non interferire con gli utenti che hanno privilegi su quella parte di spettro. Devono quindi essere individuati i cosiddetti “spectrum holes” o “white spaces”, parti di spettro assegnate ma non utilizzate, dai quali prendono il nome i dispositivi.Uno dei modi per individuare gli “Spectrum holes” per una Cognitive Radio consiste nel cercare di captare il segnale destinato agli utenti primari; questa tecnica è nota con il nome di Spectrum Sensing e consente di ottenere essenzialmente una misura all’interno del canale considerato al fine di determinare la presenza o meno di un servizio protetto. La tecnica di sensing impiegata da un WSD che opera autonomamente non è però molto efficiente in quanto non garantisce una buona protezione ai ricevitori DTT che usano lo stesso canale sul quale il WSD intende trasmettere.A livello europeo la soluzione che è stata ritenuta più affidabile per evitare le interferenze sui ricevitori DTT è rappresentata dall’uso di un geo-location database che opera in collaborazione con il dispositivo cognitivo.Lo scopo di questa tesi è quello di presentare un algoritmo che permette di combinare i due approcci di geo-location database e Sensing per definire i livelli di potenza trasmissibile da un WSD.
Resumo:
In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perché tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.
Resumo:
L’area posta a monte della strada provinciale Diga Salto – Bivio Rocca Vittiana del comune di Varco Sabino (RI), è stata risanata dopo che l’Amministrazione Provinciale di Rieti ha indetto un appalto concorso esteso a tutto il territorio nazionale nel 1990. A seguito degli interventi di bonifica e consolidamento della zona suddetta, nonché di protezione e presidio del sottostante tratto di S.P. (Figura 50) con le relative proposte di manutenzione ad oggi non pervenute, si è voluto intraprendere questo studio, mostrando le soluzioni adottate in passato e confrontandole con lo stato dei luoghi al 2013. Tutto ciò è nato dalla consapevolezza e conoscenza del territorio reatino e dalla sua propensione al dissesto, che già dall’età romana e dalla metà del ‘900, ha subito profondi cambiamenti a seguito di considerevoli opere di bonifica e sistemazioni territoriali come la realizzazione dei bacini artificiali del Salto e del Turano per rendere più agevole l’insediamento e la colonizzazione dei terreni della Piana di Rieti, anticamente occupata dalle acque del Lacus Velinus. Proprio dove fu eretta la diga del Salto sotto Rocca Vittiana di Varco Sabino, corre la strada provinciale e quel Suo sciagurato tratto di 500 m bersaglio di massi in caduta libera dal monte sovrastante. Le frane per crollo appaiono tra i dissesti maggiormente pericolosi e frequenti e, nel contempo, i meno considerati negli studi geologici. Nella Provincia di Rieti sono ricorrenti i fenomeni di questo tipo di frana...
Resumo:
L’organizzazione mondiale della sanità stima che il 10% della popolazione nel mondo presenta una malattia epatica cronica. L’insufficienza epatica fulminante porta alla morte entro novantasei ore in assenza di trapianto. Questa patologia colpisce circa 2500 persone l’anno e il trapianto di fegato è l’unico trattamento efficiente, ma la mancanza di donatori ha causato un elevato tasso di mortalità in pazienti in lista di attesa per l’organo compatibile. Negli ultimi anni è cresciuta sempre più la lista d’attesa per il trapianto, mentre il numero degli innesti disponibili rimane ridotto. Non tutti i pazienti sono candidati al trapianto. Questo tipo di intervento è rischioso e richiede un trattamento d’immunosoppressione per tutta la vita. Si cercano quindi soluzioni sostitutive, ma lo sviluppo di dispositivi efficaci di assistenza epatica rimane uno dei più alti sforzi dell’ingegneria biomedica. Il fegato, infatti, svolge più di 500 funzioni diverse che sono difficili da riprodurre artificialmente. Un dispositivo di assistenza epatica deve sostituire o integrare la funzione epatica quando scende al di sotto della soglia critica del 30% del normale funzionamento. Per garantire il normale funzionamento dell’organismo, la massa di epatociti disponibile in un paziente adulto deve essere approssimativamente di circa 400g. Se questa massa è disponibile si può avere rigenerazione epatica spontanea. Questo spiega la necessità di raggiungere e garantire, comunque, un livello minimo di funzionalità epatica, al di sotto del quale non si ha né rigenerazione di epatociti (impossibilità di ripristinare l’attività metabolica del fegato), né funzionamento di altri organi del corpo, che dipendono dall’attività epatica. La ricerca e lo sviluppo di dispositivi di assistenza epatica è tesa al raggiungimento e al mantenimento della soglia minima di funzionalità; in questo modo si permette al paziente di sopravvivere fino al trapianto, quando questo è l’unica terapia possibile, oppure di poter raggiungere le condizioni di autorigenerazione spontanea nelle patologie meno gravi. La ricerca sui dispositivi di assistenza epatica risale agli anni 50, e sin da allora sono state sviluppate diverse soluzioni, che possiamo distinguere in sistemi meccanici (sistemi non biologici) e sistemi biochimici o biomeccanici (sistemi biologici). I sistemi non biologici possono avere un ruolo nel trattamento di forme specifiche d’insufficienza epatica. L’obiettivo è di fornire purificazione del sangue, ossia rimuovere tutte le sostanze che si accumulano nel sangue durante la disfunzione epatica, causando anomalie neurologiche, lesioni del fegato e di altri organi e inibizione della rigenerazione epatica. I sistemi biologici possono essere utili nel trattamento d’insufficienza epatica, in cui l’obiettivo primario è quello di fornire tutte le funzioni del fegato che sono state compromesse o perse.
Resumo:
Il lavoro riguarda la caratterizzazione fluidodinamica di un reattore agitato meccanicamente utilizzato per la produzione di biogas. Lo studio è stato possibile attraverso l’impiego della PIV (Particle Image Velocimetry), tecnica di diagnostica ottica non invasiva adatta a fornire misure quantitative dei campi di velocità delle fasi all’interno del reattore. La caratterizzazione è stata preceduta da una fase di messa a punto della tecnica, in modo da definire principalmente l’influenza dello spessore del fascio laser e dell’intervallo di tempo tra gli impulsi laser sui campi di moto ottenuti. In seguito, il reattore è stato esaminato in due configurazioni: con albero in posizione centrata e con albero in posizione eccentrica. Entrambe le geometrie sono state inoltre analizzate in condizione monofase e solido-liquido. Le prove in monofase con albero centrato hanno permesso di identificare un particolare regime transitorio del fluido nei primi minuti dopo la messa in funzione del sistema di agitazione, caratterizzato da una buona efficienza di miscelazione in tutta la sezione di analisi. In condizioni di regime stazionario, dopo circa 1 ora di agitazione, è stato invece osservato che il fluido nella zona vicino alla parete è essenzialmente stagnante. Sempre con albero centrato, le acquisizioni in condizione bifase hanno permesso di osservare la forte influenza che la presenza di particelle di solido ha sui campi di moto della fase liquida. Per l’assetto con albero in posizione eccentrica, in condizione monofase e regime di moto stazionario, è stata evidenziata una significativa influenza del livello di liquido all’interno del reattore sui campi di moto ottenuti: aumentando il livello scalato rispetto a quello usato nella pratica industriale è stato osservato un miglioramento dell’efficienza di miscelazione grazie al maggior lavoro svolto dal sistema di agitazione. In questa configurazione, inoltre, è stato effettuato un confronto tra i campi di moto indotti da due tipologie di giranti aventi stesso diametro, ma diversa geometria. Passando alla condizione bifase con albero eccentrico, i risultati hanno evidenziato la forte asimmetria del reattore: è stato evidenziato, infatti, come il sistema raggiunga regimi stazionari differenti a seconda delle velocità di rotazione e delle condizioni adottate per il raggiungimento della stabilità. Grazie alle prove su piani orizzontali del reattore in configurazione eccentrica e condizioni bifase, è stato concluso che i sistemi in uso inducano un campo di moto prettamente tangenziale, non ottimizzato però per la sospensione della fase solida necessaria in questa tipologia di processi.
Resumo:
Il pomodoro è una delle colture principali del panorama agro-alimentare italiano e rappresenta un ingrediente base della tradizione culinaria nazionale. Il pomodoro lavorato dall’industria conserviera può essere trasformato in diverse tipologie merceologiche, che si differenziano in base alla tecniche di lavorazione impiegate ed alle caratteristiche del prodotto finito. la percentuale di spesa totale destinata all’acquisto di cibo fuori casa è in aumento a livello globale e l’interesse dell’industria alimentare nei confronti di questo canale di vendita è quindi crescente. Mentre sono numerose le indagine in letteratura che studiano i processi di acquisto dei consumatori finali, non ci sono evidenze di studi simili condotti sugli operatori del Food Service. Obiettivo principale della ricerca è quello di valutare le preferenze dei responsabili acquisti del settore Food Service per diverse tipologie di pomodoro trasformato, in relazione ad una gamma di attributi rilevanti del prodotto e di caratteristiche del cliente. La raccolta dei dati è avvenuta attraverso un esperimento di scelta ipotetico realizzato in Italia e alcuni mercati esteri. Dai risultati ottenuti dall’indagine emerge che i Pelati sono la categoria di pomodoro trasformato preferita dai responsabili degli acquisti del settore Food Service intervistati, con il 35% delle preferenze dichiarate nell'insieme dei contesti di scelta proposti, seguita dalla Polpa (25%), dalla Passata (20%) e dal Concentrato (15%). Dai risultati ottenuti dalla stima del modello econometrico Logit a parametri randomizzati è emerso che alcuni attributi qualitativi di fiducia (credence), spesso impiegati nelle strategie di differenziazione e posizionamento da parte dell’industria alimentare nel mercato Retail, possono rivestire un ruolo importante anche nell’influenzare le preferenze degli operatori del Food Service. Questo potrebbe quindi essere un interessante filone di ricerca da sviluppare nel futuro, possibilmente con l'impiego congiunto di metodologie di analisi basate su esperimenti di scelta ipotetici e non ipotetici.
Resumo:
Obiettivo Valutare l’ipotesi secondo cui la movimentazione manuale di carichi possa essere un fattore di rischio per il di distacco di retina. Metodi Si è condotto uno studio caso-controllo ospedaliero multicentrico, a Bologna, (reparto di Oculistica del policlinico S. Orsola Malpighi, Prof. Campos), e a Brescia (reparto di oculistica “Spedali Civili” Prof. Semeraro). I casi sono 104 pazienti operati per distacco di retina. I controlli sono 173 pazienti reclutati tra l’utenza degli ambulatori del medesimo reparto di provenienza dei casi. Sia i casi che i controlli (all’oscuro dall’ipotesi in studio) sono stati sottoposti ad un’intervista, attraverso un questionario strutturato concernente caratteristiche individuali, patologie pregresse e fattori di rischio professionali (e non) relativi al distacco di retina. I dati relativi alla movimentazione manuale di carichi sono stati utilizzati per creare un “indice di sollevamento cumulativo―ICS” (peso del carico sollevato x numero di sollevamenti/ora x numero di anni di sollevamento). Sono stati calcolati mediante un modello di regressione logistica unconditional (aggiustato per età e sesso) gli Odds Ratio (OR) relativi all’associazione tra distacco di retina e vari fattori di rischio, tra cui la movimentazione manuale di carichi. Risultati Oltre alla chirurgia oculare e alla miopia (fattori di rischio noti), si evidenzia un trend positivo tra l’aumento dell’ICS e il rischio di distacco della retina. Il rischio maggiore si osserva per la categoria di sollevamento severo (OR 3.6, IC 95%, 1.5–9.0). Conclusione I risultati, mostrano un maggiore rischio di sviluppare distacco di retina per coloro che svolgono attività lavorative che comportino la movimentazione manuale di carichi e, a conferma di quanto riportato in letteratura, anche per i soggetti miopi e per coloro che sono stati sottoposti ad intervento di cataratta. Si rende quindi evidente l’importanza degli interventi di prevenzione in soggetti addetti alla movimentazione manuale di carichi, in particolare se miopi.
Resumo:
La regolazione dei sistemi di propulsione a razzo a propellente solido (Solid Rocket Motors) ha da sempre rappresentato una delle principali problematiche legate a questa tipologia di motori. L’assenza di un qualsiasi genere di controllo diretto del processo di combustione del grano solido, fa si che la previsione della balistica interna rappresenti da sempre il principale strumento utilizzato sia per definire in fase di progetto la configurazione ottimale del motore, sia per analizzare le eventuali anomalie riscontrate in ambito sperimentale. Variazioni locali nella struttura del propellente, difettosità interne o eterogeneità nelle condizioni di camera posso dare origine ad alterazioni del rateo locale di combustione del propellente e conseguentemente a profili di pressione e di spinta sperimentali differenti da quelli previsti per via teorica. Molti dei codici attualmente in uso offrono un approccio piuttosto semplificato al problema, facendo per lo più ricorso a fattori correttivi (fattori HUMP) semi-empirici, senza tuttavia andare a ricostruire in maniera più realistica le eterogeneità di prestazione del propellente. Questo lavoro di tesi vuole dunque proporre un nuovo approccio alla previsione numerica delle prestazioni dei sistemi a propellente solido, attraverso la realizzazione di un nuovo codice di simulazione, denominato ROBOOST (ROcket BOOst Simulation Tool). Richiamando concetti e techiche proprie della Computer Grafica, questo nuovo codice è in grado di ricostruire in processo di regressione superficiale del grano in maniera puntuale, attraverso l’utilizzo di una mesh triangolare mobile. Variazioni locali del rateo di combustione posso quindi essere facilmente riprodotte ed il calcolo della balistica interna avviene mediante l’accoppiamento di un modello 0D non-stazionario e di uno 1D quasi-stazionario. L’attività è stata svolta in collaborazione con l’azienda Avio Space Division e il nuovo codice è stato implementato con successo sul motore Zefiro 9.
Resumo:
In questa tesi si studiano gli aspetti dell’emissione non termica degli ammassi di galassie e le proprietà in confronto all’emissione termica dell’ICM, in particolare verranno messe a confronto le proprietà nella banda radio ed X. Si considerano in particolare le radiosorgenti diffuse: gli aloni, i relitti, i mini aloni e si mostra come l’andamento dello spettro radio degli aloni sia ripido alle alte frequenze; inoltre si nota che merger (scontri) recenti tra ammassi, sembrano fornire energia agli aloni ed ai relitti e dunque come conseguenza di ciò le proprietà nella banda radio e nei raggi X negli ammassi siano collegate tra di loro. I risultati sperimentali consentono di ipotizzare che gli ammassi con aloni e relitti siano caratterizzati da una forte attività dinamica che è collegata ai processi di merging. Si può vedere che i mini aloni sono le uniche sorgenti diffuse che non sono associate a merger tra ammassi. Si discute degli elettroni relativistici negli aloni radio, nei relitti radio e nei mini aloni radio. Trattando i campi magnetici degli ammassi, la loro origine e la polarizzazione che essi producono si evince che misurando la percentuale di polarizzazione si può stimare il grado d’ordine del campo magnetico in una radiosorgente. Se l’ICM in un ammasso possiede un forte effetto sulle strutture delle radiogalassie, la probabilità di formare radiosorgenti sembra non essere influenzata dall’ambiente dell’ammasso, ma soltanto dai merger degli ammassi. Nel secondo capitolo in particolare, si approfondisce invece la radiazione di sincrotrone.
Resumo:
I calibratori di attività dei radionuclidi sono strumenti fondamentali per la pratica diagnostica e terapeutica in Medicina Nucleare. Il loro ruolo principale è quello di quantificare accuratamente l’attività dei radiofarmaci somministrata ai pazienti, vengono pertanto progettati per avere una accuratezza di misura ottimale per attività relativamente alte. Lo scopo di questo studio è stato quello di determinare il livello di minima attività rivelabile (o Minimum Detectable Activity, MDA) di diversi modelli di calibratori di attività, al fine di estendere l’utilizzo di questi strumenti ad altre applicazioni. E’ stata quindi eseguita un’estesa campagna di misure sperimentali sui principali modelli di calibratori commercialmente distribuiti. Le modalità di misura della MDA sviluppate sono basate su un adattamento delle tecniche di riferimento per altri tipi di strumenti; tali tecniche, non solo rispondono all’obiettivo immediato, ma hanno permesso di dimostrare che è possibile una determinazione generalizzata della MDA di questa classe di apparecchiature. I risultati che verranno presentati sono stati ottenuti con una metodologia indipendente dal tipo di apparecchiatura e sono basati su misurazioni che possono essere replicate in ogni laboratorio.
Resumo:
Le microreti caratterizzate da unità di generazione con Fonti Energetiche Rinnovabili (FER), sono oggetto di crescente interesse in due contesti molto diversi tra loro: l’integrazione della Generazione Diffusa (GD) in reti di distribuzione pubbliche nei paesi sviluppati e l’elettrificazione di zone rurali attualmente non servite dalla rete elettrica. L’introduzione dei sistemi di accumulo nelle microreti rende possibile la compensazione della variabilità delle FER trasformando le microreti in sistemi di produzione che nel complesso risultano completamente regolabili. L’obiettivo del presente lavoro di tesi è dimostrare come le microreti possono svolgere un ruolo fondamentale per lo sviluppo delle infrastrutture elettriche nei paesi in via di sviluppo e nelle economie emergenti ponendo le basi per l’elettrificazione di aree remote e scarsamente popolate ad oggi non connesse alla rete di distribuzione dell’energia.
Resumo:
La tesi di dottorato ha come oggetto di studio gli aspetti sostanziali della vendita giudiziale da un punto di vista comparatistico tra Spagna e Italia. Si tratta di un tema che non è stato analizzato profondamente dalle più recenti dottrine spagnola e italiana, che è caratterizzato da una notevole complessità tecnica visto il suo forte carattere interdisciplinare (in particolare, processuale-sostanziale) e la cui vigenza attuale è stata intensificata dalla grande quantità di processi di esecuzione che in questo periodo di instabilità economica sono una constante nei Tribunali spagnoli e italiani. Il fatto che costituisca un’istituzione giuridica inquadrata nell’ambito del processo di espropriazione forzata fa sì che questa possieda un accentuato carattere processuale e, infatti, è il legislatore processuale che si occupa per la maggior parte del suo regime giuridico. Tuttavia, al di là di questa sua natura evidentemente processuale, essa produce una serie di effetti sostanziali di enorme importanza, che sono proprio l’oggetto della tesi di dottorato, nello specifico ambito dei beni immobili (considerando la grande importanza economica e pratica dei diritti di questa natura nella nostra realtà socio-economica).
Resumo:
La contaminazione chimica rappresenta uno dei rischi principali per la sicurezza alimentare e può arrecare anche gravi danni alla salute umana. Rientrano in questa tesi di dottorato tre famiglie di contaminanti: Micotossine, Metalli e Insetticidi. La ricerca di aflatossina B1 è stata effettuata su 90 confezioni di farina, sia biologici sia convenzionali. La presenza della micotossina è stata rilevata solo nelle farine di mais. Solo un campione di produzione convenzionale ha superato il limite di 2 ppb definito per legge. Il dato di maggior rilievo è stato che il quantitativo di 5 grammi di campionamento si è dimostrato non rappresentativo sul totale della confezione commerciale di farina. Più attendibile si è invece dimostrato un campionamento di 20 grammi. L’aflatossina M1 è stata ricercata in 58 campioni di latte di cui 35 sono risultati positivi. Tuttavia, i livelli riscontrati erano costantemente inferiori al limite previsto per legge. Sono stati sottoposti a estrazione e purificazione, e analizzati con metodica HPLC-FL per la ricerca di Ocratossina A, 114 campioni di bile, 35 campioni di plasma, 40 campioni di rene prelevati da polli in Giordania. Le analisi hanno fornito risultati costantemente negativi. Sono stati analizzati 72 campioni (30 di muscolo, 29 di fegato e 13 di rene) prelevati da 30 bovini nel macello di Irbid (Giordania), di età compresa tra 8 e 30 mesi e provenienti da allevamenti diversi, per la ricerca di 13 elementi essenziali e non essenziali. In questo studio nessun campione supera i livelli massimi stabiliti dalla normativa europea per quanto riguarda gli elementi considerati. Infine, sono stati analizzati 37 campioni di latte ovino e 31 campioni di latte bovino, prelevati in Giordania in diversi allevamenti, per la ricerca di 4 neonicotinoidi (imidacloprid, acetamiprid, thiamethoxam e thiacloprid). I campioni, analizzati con sistema HPLC/MS/MS, sono risultati costantemente negativi ai quattro neonicotinoidi ricercati.
Resumo:
Una stella non è un sistema in "vero" equilibrio termodinamico: perde costantemente energia, non ha una composizione chimica costante nel tempo e non ha nemmeno una temperatura uniforme. Ma, in realtà, i processi atomici e sub-atomici avvengono in tempi così brevi, rispetto ai tempi caratteristici dell'evoluzione stellare, da potersi considerare sempre in equilibrio. Le reazioni termonucleari, invece, avvengono su tempi scala molto lunghi, confrontabili persino con i tempi di evoluzione stellare. Inoltre il gradiente di temperatura è dell'ordine di 1e-4 K/cm e il libero cammino medio di un fotone è circa di 1 cm, il che ci permette di assumere che ogni strato della stella sia uno strato adiabatico a temperatura uniforme. Di conseguenza lo stato della materia negli interni stellari è in una condizione di ``quasi'' equilibrio termodinamico, cosa che ci permette di descrivere la materia attraverso le leggi della Meccanica Statistica. In particolare lo stato dei fotoni è descritto dalla Statistica di Bose-Einstein, la quale conduce alla Legge di Planck; lo stato del gas di ioni ed elettroni non degeneri è descritto dalla Statistica di Maxwell-Boltzmann; e, nel caso di degenerazione, lo stato degli elettroni è descritto dalla Statistica di Fermi-Dirac. Nella forma più generale, l'equazione di stato dipende dalla somma dei contributi appena citati (radiazione, gas e degenerazione). Vedremo prima questi contributi singolarmente, e dopo li confronteremo tra loro, ottenendo delle relazioni che permettono di determinare quale legge descrive lo stato fisico di un plasma stellare, semplicemente conoscendone temperatura e densità. Rappresentando queste condizioni su un piano $\log \rho \-- \log T$ possiamo descrivere lo stato del nucleo stellare come un punto, e vedere in che stato è la materia al suo interno, a seconda della zona del piano in cui ricade. È anche possibile seguire tutta l'evoluzione della stella tracciando una linea che mostra come cambia lo stato della materia nucleare nelle diverse fasi evolutive. Infine vedremo come leggi quantistiche che operano su scala atomica e sub-atomica siano in grado di influenzare l'evoluzione di sistemi enormi come quelli stellari: infatti la degenerazione elettronica conduce ad una massa limite per oggetti completamente degeneri (in particolare per le nane bianche) detta Massa di Chandrasekhar.