328 resultados para Puré


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background/Aims. Uremic Neuropathy (UN) highly limits the individual self-sufficiency causing near-continuous pain. An estimation of the actual UN prevalence among hemodialysis patients was the aim of the present work. Methods. We studied 225 prevalent dialysis patients from two Italian Centres. The Michigan Neuropathy Score Instrument (MNSI), already validated in diabetic neuropathy, was used for the diagnosis of UN. It consisted of a questionnaire (MNSI_Q) and a physical-clinical evaluation (MNSI_P). Patients without any disease possibly inducing secondary neuropathy and with MNSI score  3 have been diagnosed as affected by UN. Electroneurographic (ENG) lower limbs examination was performed in these patients to compare sensory conduction velocities (SCV) and sensory nerve action potentials (SNAP) with the MNSI results. Results. Thirtyseven patients (16.4%) were identified as being affected by UN, while 9 (4%) presented a score <3 in spite of neuropathic symptoms. In the 37 UN patients a significant correlation was found between MNSI_P and SCV (r2 = 0.1959; p<0.034) as well as SNAP (r2 = 0.3454; p=0.027) both measured by ENG. Conclusions. UN is an underestimated disease among the dialysis population even though it represents a huge problem in terms of pain and quality of life. MNSI could represent a valid and simple clinical-instrumental screening test for the early diagnosis of UN in view of an early therapeutic approach.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di ricerca prende le mosse da una premessa di ordine economico. Il fenomeno delle reti di impresa, infatti, nasce dalla realtà economica dei mercati. In tale contesto non può prescindere dal delineare un quadro della situazione- anche di crisi- congiunturale che ha visto coinvolte specialmente le imprese italiane. In tale prospettiva, si è reso necessario indagare il fenomeno della globalizzazione, con riferimento alle sue origini,caratteristiche e conseguenze. Ci si sofferma poi sulla ricostruzione dogmatica del fenomeno. Si parte dalla ricostruzione dello stesso in termini di contratto plurilaterale- sia esso con comunione di scopo oppure plurilaterale di scambio- per criticare tale impostazione, non del tutto soddisfacente, in quanto ritenuto remissiva di fronte alla attuale vis espansiva del contratto plurilaterale. Più convincente appare lo schema del collegamento contrattuale, che ha il pregio di preservare l’autonomia e l’indipendenza degli imprenditori aderenti, pur inseriti nel contesto di un’operazione economica unitaria, volta a perseguire uno scopo comune, l’“interesse di rete”, considerato meritevole di tutela secondo l’ordinamento giuridico ex art. 1322 2.co. c.c. In effetti il contratto ben si presta a disegnare modelli di rete sia con distribuzione simmetrica del potere decisionale, sia con distribuzione asimmetrica, vale a dire con un elevato livello di gerarchia interna. Non può d’altra parte non ravvisarsi un’affinità con le ipotesi di collegamento contrattuale in fase di produzione, consistente nel delegare ad un terzo parte della produzione, e nella fase distributiva, per cui la distribuzione avviene attraverso reti di contratti. Si affronta la materia della responsabilità della rete, impostando il problema sotto due profili: la responsabilità interna ed esterna. La prima viene risolta sulla base dell’affidamento reciproco maturato da ogni imprenditore. La seconda viene distinta in responsabilità extracontrattuale, ricondotta nella fattispecie all’art. 2050 c.c., e contrattuale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Intorno alla metà degli anni trenta la Spagna diventò il centro dell’attenzione del mondo e tutte le grandi potenze internazionali, vecchie e nuove, vennero coinvolte, in misura diversa, nella guerra civile. Già nell’agosto del 1936, un mese dopo l’esplosione del conflitto, tutti gli Stati più rappresentativi caldeggiavano l’ipotesi di una politica comune di “non intervento”. Il ruolo guida in tal senso venne assunto dal governo inglese, capace di dissuadere, in tempi estremamente rapidi, il governo frontista francese di Leon Blum dall’intento di sostenere economicamente e militarmente il legittimo governo repubblicano spagnolo. La preoccupazione che il conflitto potesse degenerare in uno scontro più generale fu quindi la ragione principale per la quale qualche settimana dopo nacque il “Comitato di Non Intervento”, cui aderirono ben ventisette nazioni europee tra cui Francia, Inghilterra, URSS, Italia, Germania e Portogallo. Il mio progetto di ricerca dottorale esamina il ruolo, le scelte ed i relativi dibattiti in merito all’unica grande potenza, gli Stati Uniti d’America, che, pur scegliendo di rimanere neutrale, si astenne dal partecipare al suddetto Comitato. In ambito statunitense particolare rilievo assumono due aspetti del dibattito politico sulla Spagna: il primo maturato in seno all’Amministrazione Roosevelt, il secondo elaborato dalla componente Liberal della coalizione del New Deal attraverso i settimanali, “The Nation” e “The New Republic”. Il confronto pubblico acceso dalla guerra civile spagnola fu infatti l’occasione per la società civile americana per dibattere apertamente e francamente circa l’opportunità e la capacità della nazione di assumere o meno un ruolo internazionale corrispondente al prestigio socio-economico in via di acquisizione a livello mondiale. Approfondire ed esaminare il dibattito sulla guerra civile spagnola negli USA significa dunque andare alla ricerca delle radici culturali di quello che sarà uno dei più vasti ed articolati confronti politici e teorici del ventesimo secolo: l’internazionalismo americano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli impianti di depurazione rappresentano, nei contesti urbani, elementi di imprescindibile importanza nell’ambito di una corretta gestione e tutela della risorsa idrica e dell’ambiente. Il crescente grado di antropizzazione delle aree urbanizzate e parallelamente le sempre minori disponibilità in termini di spazi utilizzabili a fini depurativi comportano sempre di più la necessità di ottimizzare i processi di dimensionamento degli impianti. Inoltre, l’obiettivo di aumentare l’efficienza del ciclo depurativo andando a minimizzare i costi correlati alla gestione degli stessi indirizza verso una omogeneizzazione nei criteri di dimensionamento adottati. In questo senso, la normativa tecnica di settore risulta carente, andandosi a concentrare prevalentemente sul rispetto di fissati standard ambientali senza però fornire indicazioni precise sui criteri di progettazione da adottare per perseguire tali standard. La letteratura scientifica pur indicando range di possibili valori di riferimento da adottare, nel dimensionamento degli impianti, lascia un ampio margine di discrezionalità al progettista. La presente tesi si pone pertanto, a partire da tali valori di letteratura, di andare a definire da un lato le caratteristiche quali-quantitative del refluo in ingresso e dall’altro i valori di riferimento da adottare in sede di progettazione per perseguire gli obiettivi precedentemente indicati. La prima parte, di valenza generale, oltre alla caratterizzazione dell’influente descrive nel dettaglio le diverse fasi del processo e il loro dimensionamento che in tutte le sezioni, ad eccezione del biologico, viene effettuato attraverso equazioni semplificate mettendo a confronto e analizzando i parametri progettuali proposti da letteratura. Per quanto riguarda il comparto biologico la maggior complessità del fenomeno da descrivere rende difficile la valutazione delle grandezze che caratterizzano il funzionamento mediante l’utilizzo di equazioni semplificate. Per questo si è deciso di modellare questo comparto, unito a quello della sedimentazione, attraverso un software (WEST) che permette non solo di simulare il processo ma anche, attraverso le analisi di scenario, di determinare quelli che sono i valori progettuali puntuali che consentono di ottenere da un lato una minimizzazione dei costi dell’impianto, sia costruttivi che gestionali, e dall’altro la massimizzazione delle rese depurative. Nello specifico si è fatto riferimento ad impianto fanghi attivi a schema semplificato con potenzialità fissata pari a 10000 AE. Il confronto con i dati di esercizio di alcuni impianti di analoga tipologia ha evidenziato che una buona capacità dello strumento di modellazione utilizzato di descrivere i processi. E’ possibile quindi concludere che tali strumenti, affiancati ad una lettura critica dei risultati ottenuti possono essere ottimi strumenti di supporto sia in fase di progettazione che in prospettiva di gestione dell’impianto al fine di ottimizzare i processi e quindi i costi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’ambito del presente lavoro sperimentale sono state prese in considerazione differenti tecniche, tradizionali ed innovative, per la determinazione del contenuto di acqua presente negli oli extravergine di oliva. Seppur presente nell'olio in quantità limitata, l'acqua é in grado di favorire la dissoluzione e veicolare componenti minori idrofilici (come le molecole a struttura fenolica e polifenolica) all'interno di micelle inverse che si creano nella matrice lipidica quando alla superficie acqua-olio si aggregano composti anfifilici (come i digliceridi, i monogliceridi, gli acidi grassi liberi, i fosfolipidi etc.) che danno luogo alla formazione di aggregati colloidali. I risultati ottenuti su un set di 60 campioni hanno evidenziato come esistano correlazioni positive e soddisfacenti tra le diverse metodiche analitiche tradizionali quali la titolazione titrimetrica di Karl Fisher e quelle gravimetriche per essiccamento in stufa o mediante termobilancia. La migliore correlazione in termini di R2 con valore pari a circa 0,82 è stata ottenuta tra i metodi Karl Fisher ed essiccamento in stufa, mentre per esempio quella tra i due metodi gravimetrici (stufa e termobilancia) ha fatto registrare un valore inferiore (0,70). Pur essendosi verificate delle soddisfacenti correlazioni tra le tre tecniche tradizionali, i valori del contenuto in acqua dei campioni si sono presentati variabili in funzione dell'utilizzo di una modalità di misurazione rispetto all'altra. Tale variabilità é funzione di diversi fattori: la difficoltà di determinare l'acqua fortemente legata nel caso dei metodi per essiccamento; la perdita in peso causata anche da altri componenti in grado di volatilizzare alle condizioni analitiche adottate; la possibilità di formazione di composti non originariamente presenti come risultato di modificazioni chimiche indotte dall'elevata temperatura. Il contenuto di acqua è stato quindi stimato anche mediante una tecnica innovativa a basso costo basata su misure dielettriche. Considerato che l’olio extravergine di oliva è noto essere un ottimo isolante, il fenomeno dielettrico osservato risulta essere di natura capacitiva. Il risultato di correlazione ottenuto su un set di 23 oli extravergini di oliva applicando in parallelo questa tecnica rapida e la misura gravimetrica con stufa (che é un metodo ISO), è da considerarsi soddisfacente, con un R2 pari anche in questo caso a 0,82. In conclusione, le tecniche attualmente utilizzate per la determinazione del contenuto di acqua in oli extravergine di oliva risultano tra loro correlate. Considerando che tali tecniche tradizionali sono dispendiose o in termini di tempo (gravimetrico mediante stufa) o in termini di consumo di reagenti e solventi (titrimetrico con reattivo di Karl Fischer), il nuovo approccio sperimentato mediante misure capacitive può essere considerato molto interessante anche se, sicuramente, sarà da applicare ad un numero più ampio di campioni per rendere l'evidenza sperimentale più robusta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il bacino ligure, pur facendo parte della più grande area marina protetta del Mar Mediterraneo, il Santuario Pelagos, risulta essere una regione in cui le attività umane stanno condizionando la presenza di numerose specie di Cetacei. Fra tutte Tursiops truncatus, in virtù della sua distribuzione limitata per lo più alle acque basse (<200 metri) è la specie maggiormente soggetta alle conseguenze dirette e indirette dell’impatto antropico. Questo elaborato è stato condotto all’interno del più ampio progetto “Delfini Metropolitani” coordinato dall’Acquario di Genova. L’area di studio presa in esame è l’intero levante ligure con tre stazioni di ormeggio: Genova, Rapallo e Lerici. Tramite la tecnica della cattura-ricattura fotografica è stato possibile analizzare la distribuzione ed effettuare delle stime di abbondanza per il periodo di studio 2005 – 2012. Dai risultati e dal confronto con altri studi è emerso che il tursiope vive entro la piattaforma continentale e sembrerebbe che all’aumentare di quest’ultima aumenti la dimensione della popolazione. Per il periodo di studio considerato la popolazione non fa registrare trend demografici significativi, rimanendo costante fra 150 - 250 individui. In questo elaborato si sono anche studiate le differenze fra maschi e femmine nell’evoluzione dei marcaggi naturali. I risultati preliminari hanno mostrato una differenza significativa fra i due sessi. Il maschio ha un valore maggiore come cambiamento rispetto alle femmine, questo è dovuto al fatto che gli individui maschi hanno interazioni spesso aggressive per poter accedere alle femmine. Infine grazie all’analisi dell’evoluzione dei marcaggi naturali e delle differenze trovate, si è proposto un nuovo metodo per poter sessare gli animali. Questo qui proposto, comunque, è un metodo derivante da uno studio preliminare e si ha bisogno di successivi studi per testarne l’efficienza e l’affidabilità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il BPA è un composto aromatico precursore di materiali plastici e additivi chimici, ed è entrato a far parte della categoria dei contaminanti che alterano il sistema endocrino con molteplici effetti negativi sulla salute umana (azione di mimesi estrogenica, alterazioni della funzione tiroidea e dei sistemi riproduttivo, nervoso ed immunitario). Nella fase produttiva industriale si hanno emissioni accidentali di BPA durante il trattamento e la lavorazione dei monomeri plastici. Piccole frazioni di BPA possono essere ingerite dall’uomo poiché la sostanza migra nel tempo dal contenitore alimentare al contenuto (es. bevanda in lattina o contenitore per microonde) soprattutto se esposto ad alte temperature. Anche il contatto con composti acidi o basici, la presenza di elevati livelli di cloruro di sodio o di oli vegetali, è in grado di provocare un incremento del rilascio di BPA dai materiali polimerici. Il BPA viene rilasciato dai biberon in policarbonato, che in molti Paesi sono stati ritirati dal commercio nel 2011, e da bottiglie di acqua riutilizzabili. Infine, la carta termica degli scontrini e delle fotocopie rilasciano BPA. Nell’adulto la tossicità del BPA sembra modesta, tuttavia l'esposizione nel feto e nel neonato può risultare deleteria. Al di là della tossicità, l'aspetto che al momento preoccupa maggiormente è l'effetto che il BPA ha anche a basse dosi sul metabolismo: diversi studi in tutto il mondo correlano questa sostanza all'incidenza di diabete, ipertensione, obesità e problemi cardiaci. L’attenzione per il BPA è piuttosto recente a livello umano, mentre è assai ridotta per la salute dell’ecosistema. Tuttavia è noto che il BPA è presente anche come contaminante dei suoli, e pur essendo stato documentato il suo bioaccumulo negli organismi vegetali, non sono disponibili informazioni precedenti relativi agli effetti del BPA sugli organismi animali del suolo, in linea con il fatto che il suolo è stato una matrice ambientale molto trascurata. Il presente lavoro di tesi quindi si pone come uno studio pilota per valutare la possibile tossicità del BPA su organismi modello che vivono in questa matrice. In questo studio è stato scelto come bioindicatore “sentinella” il lombrico Eisenia andrei, il comune verme rosso, come suggeriscono le linee guida internazionali (OECD, OCSE). I possibili effetti biologici del Bisfenolo A nei lombrichi sono stati indagati sia attraverso endpoint del ciclo vitale (accrescimento, riproduzione e mortalità), sia attraverso una batteria di biomarker (generali e specifici). Data la mancanza di osservazioni precedenti si è scelto un approccio integrato tra i parametri del ciclo vitale, in genere meno sensibili ma ecologicamente più rilevanti, e i biomarker, risposte più sensibili che possono rappresentare segnali precoci di allarme inerenti l’esposizione a contaminanti ambientali o l’effetto di questi ultimi sugli organismi indagati, ma non necessariamente predittivi sulla salute della comunità. Al momento non esistono batterie di biomarker specifiche per questa sostanza, quindi un ulteriore scopo della ricerca è stato quello di evidenziare biomarker utili ad indagare eventuali alterazioni biochimiche e funzionali nei lombrichi in risposta all’esposizione a dosi crescenti di bisfenolo A. Le risposte biologiche indagate sono: - la diminuzione della stabilità delle membrane lisosomiali, che indica una riduzione dello stato di salute generale degli organismi; - l’alterazione dell’attività degli enzimi catalasi e glutatione-S-trasferasi, indice di stress ossidativo o induzione di meccanismi di detossificazione; - la diminuzione dell’attività dell’enzima acetilcolinesterasi, la quale indica neurotossicità; - l’accumulo di lipofuscine o lipidi neutri, che è sintomo rispettivamente di stress ossidativo o alterazioni del metabolismo; - la variazione della malondialdeide, composto intermedio della perossidazione lipidica, indica un stress ossidativo in corso. Sulla base dei dati ottenuti possiamo dire che il BPA, alle concentrazioni ambientali, non costituisce un elemento di rischio ecologico per gli organismi sentinella Eisenia andrei. Alle concentrazioni più elevate (che superano quelle ambientali di almeno 10 volte) si osservano delle alterazioni sui livelli di lipidi neutri e lipofuscine che pur non essendo preoccupanti dal punto di vista ecologico sono indice di vulnerabilità, dato che si tratta di alterazioni del metabolismo in conseguenza delle quali gli animali accumulano residui normalmente degradati a livello lisosomiale. Questo accumulo nei lisosomi delle cellule del tessuto cloragogeno dei vermi, che rivestono il tubo digerente, sembrano indicare una esposizione attraverso la dieta a seguito della ingestione del terreno. E’interessante il fatto che l’accumulo di lipidi è in linea con le caratteristiche obesogene del BPA, ben manifestate nei mammiferi, uomo compreso. Tuttavia non ci sono ancora conoscenze sufficienti per stabilire se questo accumulo nei vermi sia dovuto ad una specifica alterazione degli enzimi di sintesi dei lipidi oppure più genericamente ad un aumento dello stress ossidativo. Molti studi stanno valutando la capacità del BPA di alterare la sintesi e il rilascio di lipidi in cellule umane e di ratto, ma non ci sono ancora studi di questo tipo per gli organismi edafici. E’ auspicabile che questo aspetto venga approfondito, ed eventualmente venga identificato un nuovo biomarker specifico dell’azione del BPA sull’accumulo di lipidi. Un altro aspetto che sarà interessante approfondire è il bioaccumulo: la valutazione del rischio ecotossicologico di una sostanza si basa anche sul potenziale di BCF che può essere pericoloso per il biota (incluso l’uomo) per trasferimento nella catena trofica. Considerando che non esistono ancora studi specifici del bioaccumulo del BPA in organismi del suolo, ed avendo messo in luce che l’assunzione della sostanza è avvenuta (probabilmente per via alimentare) ci si pone l’obiettivo futuro di valutare questo parametro nei lombrichi, in modo da avere un quadro più ampio degli effetti associati a questo interferente endocrino nei suoli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con lo sviluppo di nuovi sistemi di telecomunicazione e con i progressi nelle applicazioni mediche ed industriali, l’uomo è sempre più esposto a campi elettromagnetici. Sorge quindi la volontà di indagare sui loro potenziali effetti nocivi, manifestatasi nel corso di diversi decenni di ricerca. Risultano di particolare interesse sanitario i campi elettromagnetici ad alta frequenza (HF-EMF) prodotti dai telefoni cellulari, in quanto il loro utilizzo implica il posizionamento dell’apparecchio in prossimità dell’orecchio, e quindi del cervello. Nel 2011 l’Agenzia Internazionale dell'OMS per la Ricerca sul Cancro (IARC), ha classificato gli HF-EMF come “possibilmente cancerogeni”, in quanto l’evidenza epidemiologica è stata giudicata “limitata”. Successivamente l’OMS si è espressa in favore di ulteriori ricerche giustificate dal crescente uso di telefoni cellulari, mentre non è stata richiesta l’adozione di misure precauzionali di limitazione al loro utilizzo. Emerge dunque la necessità di proseguire gli studi, che con questa tesi abbiamo indirizzato all’enzima acetilcolinesterasi (AChE). L’AChE svolge un ruolo importante nella trasmissione sinaptica in quanto catalizza l’idrolisi dell’acetilcolina (ACh), importante neurotrasmettitore nel sistema nervoso umano e animale. Lo studio dell’attività dell’AChE presenta una rilevante importanza dal punto di vista sanitario considerando che il deterioramento progressivo delle cellule neuronali, riscontrato nel Morbo di Alzheimer, è attribuito ad una diminuzione del livello del neurotrasmettitore ACh (Lane et al. 2005). A partire dagli anni 80, sono stati svolti studi sull’attività dell’enzima a seguito di esposizioni a EMF, i quali hanno evidenziato nella maggior parte dei casi un cambiamento dell’attività stessa. Il presente lavoro si avvale di un valido sistema di irraggiamento ad alta frequenza che simula l’esposizione ai segnali GSM; lo studio è stato svolto sulla linea cellulare PC12, cellule tumorali derivanti da feocromocitoma di ratto capaci di secernere e immagazzinare ACh e AChE. Sono state valutate in particolare l’attività enzimatica e l’espressione genica dell’AChE nelle cellule PC12 esposte ad una frequenza portante di 1,8 GHz con frequenza di modulazione di 217 Hz, condizioni alle quali lavorano comunemente gli apparati di telefonia mobile in modalità GSM, per un periodo di 24 h. I risultati ottenuti mostrano un aumento dell’attività dell’enzima AChE dei campioni irraggiati rispetto ai controlli, con variazione della Vmax ma non della Km, mentre non è stata rilevata alcuna variazione significativa dell’espressione genica, analizzata mediante PCR real-time. Nelle cellule PC12, si aveva una maggiore attività ed espressione genica dell’enzima in cellule trattate con forskolin e dbcAMP, impiegati come stimoli positivi. Questi risultati suggeriscono il coinvolgimento del sistema AMPc–dipendente nel controllo dell’espressione genica dell’enzima. L’AMPc, pur agendo tipicamente come secondo messaggero nella trasduzione del segnale chimico, in molte cellule di diversi organismi sembra essere aumentato anche in condizioni di stress. In particolare l’effetto si esplicava infatti sulla isoforma AChER, indotta in condizioni di stress. Il fatto che l’aumento dell’attività enzimatica di AChE indotto da HF-EMF non sia associato né all’aumento dell’affinità per il substrato, né all’aumento del numero di molecole, suggerisce l’ipotesi che i campi elettromagnetici ad alta frequenza agiscano sul microambiente di membrana che circonda l’enzima, per esempio determinando cambiamenti delle condizioni all’interno della matrice lipidica, influenzando fortemente la sua attività. Sarà interessante valutare in futuro come l’aumento della Vmax di reazione venga indotto in assenza di aumento dei trascritti genici. In conclusione il presente lavoro non fornisce risposte circa gli effetti del segnale GSM sulla salute umana, ma consente di affermare l’esistenza di un’interazione dei campi elettromagnetici con il modello biologico da noi utilizzato, richiamando l’attenzione sull’attività di questo enzima come possibile “indicatore” dell’interazione cellulare con tali segnali. Tale “indicatore”, ricercato da molti anni, non è mai stato individuato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Attraverso l’indagine di fonti altomedievali come le Leges dei barbari si è potuto valutare, da un punto di vista pragmatico e fattuale, l’intenzione umana – a volte incidentale e pure difficoltosa – di inquadrare e definire il rapporto con un animale domestico come il cane, che continua e si evolve tra Antichità ed Alto Medioevo e senza una cesura netta. Per completare il quadro culturale e storico-sociale della ricerca, oltre alla trattatistica antica e alla letteratura medievale sugli animali, si è passato in rassegna espressioni documentarie come i capitularia mundana ed ecclasiastica, che hanno destato ulteriore interesse in quanto in esse sussiste il riflesso di un’attenzione tutta “altomedievale” per il cane e per quell’attività che da millenni lega l’uomo a questo animale: la caccia. L’argomento venatorio presuppone l’associazione con il cane nella quasi totalità dei provvedimenti sulla caccia, trasmettendo testimonianze stimabili del connubio homo cum canibus. Ne risulta ora un’amicitia, ora un legame impedito come nelle continue interdizioni venatorie rivolte agli ecclesiastici, uomini – e donne – di Chiesa che andavano a caccia. Pur non fornendo le stesse informazioni minuziose sui cani delle Leggi dei barbari, i capitularia propongono suggestivi scorci di un mondo in cui la caccia, forse la sola attività attraverso cui uomo e cane condividono le medesime trepidazioni primordiali, non era violenza gratuita ma un fondamento della cultura, soprattutto, ma non solo, di ambito aristocratico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella prima parte viene ricostruito il concetto di vincolo espropriativo alla luce dell’elaborazione della giurisprudenza della Corte costituzionale e della Corte EDU, giungendo alla conclusione che rientrano in tale concetto le limitazioni al diritto di proprietà che: - derivano da scelte discrezionali dell’Amministrazione non correlate alle caratteristiche oggettive del bene; - superano la normale tollerabilità nel senso che impediscono al proprietario la prosecuzione dell’uso in essere o incidono sul valore di mercato del bene in modo sproporzionato rispetto alle oggettive caratteristiche del bene e all’interesse pubblico perseguito. Ragione di fondo della teoria dei vincoli è censurare l’eccessiva discrezionalità del potere urbanistico, imponendo una maggiore obiettività e controllabilità delle scelte urbanistiche. Dalla teoria dei vincoli consegue altresì che nell’esercizio del potere urbanistico l’Amministrazione, pur potendo differenziare il territorio, deve perseguire l’obiettivo del riequilibrio economico degli interessi incisi dalle sue determinazioni. L’obbligo della corresponsione dell’indennizzo costituisce la prima forma di perequazione urbanistica. Nel terzo e nel quarto capitolo viene analizzata la giurisprudenza civile e amministrativa in tema di vincoli urbanistici, rilevandone la non corrispondenza rispetto all’elaborazione della Corte costituzionale e l’incongruità dei risultati applicativi. Si evidenzia in particolare la necessità del superamento del criterio basato sulla distinzione zonizzazioni-localizzazioni e di considerare conformative unicamente quelle destinazioni realizzabili ad iniziativa privata che in concreto consentano al proprietario di conseguire un’utilità economica proporzionata al valore di mercato del bene. Nel quinto capitolo viene analizzato il rapporto tra teoria dei vincoli e perequazione urbanistica, individuandosi il discrimine tra i due diversi istituti non solo nel consenso, ma anche nella proporzionalità delle reciproche prestazioni negoziali. Attraverso la perequazione non può essere attribuito al proprietario un’utilità inferiore a quella che gli deriverebbe dall’indennità di esproprio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nonostante il fatto che una gran parte del mondo viva ancora oggi a livelli di sussistenza, i dati in nostro possesso ci indicano che le attività umane stanno esaurendo le risorse ambientali del pianeta. La causa di questo eccessivo sfruttamento delle risorse è da ricercare nei pattern non sostenibili di produzione e consumo dei paesi sviluppati. La preoccupazione per le conseguenze sull'ambiente e la lotta al cambiamento climatico hanno posto le politiche ambientali al centro dell'attenzione internazionale. Il Protocollo di Kyoto e la Commissione Europea hanno stabilito degli obiettivi di riduzione delle emissioni di gas serra, rispettivamente del 12% entro il 2012 e del 20% entro il 2020. All'interno del Protocollo di Kyoto l'obiettivo per l'Italia è ridurre del 6,5% le emissioni di gas serra nazionali rispetto al 1990. Le politiche mirate alla riduzione delle emissioni di gas serra hanno in genere come obiettivo gli impianti energetici e i trasporti. Poca attenzione viene data alla filiera agroalimentare pur sapendo che l'agricoltura ha un forte impatto sull'ambiente e recenti studi stimano che circa il 50% del cibo prodotto viene perso o buttato via dalla produzione al consumo. Alla luce di questi dati, il mio lavoro di tesi ha avuto come obiettivo quello di quantificare i rifiuti e gli sprechi agroalimentari in Europa e in Italia e stimare l'impatto ambientale associato. I dati raccolti in questa tesi mettono in evidenza l'importanza di migliorare l'efficienza della filiera agroalimentare per ridurre l'impatto ambientale nazionale e rispettare gli accordi internazionali sulla lotta ai cambiamenti climatici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quello del falso è un problema con cui si sono dovuti confrontare gli specialisti di ogni epoca storica, ma che ha subito un’accelerazione e un’esasperazione con la storia del tempo presente, anche per via della simultanea presenza dei protagonisti che hanno reso più complessa una scena storica e memoriale segnata profondamente dal rapporto tra storici e testimoni e dall’articolazione della memoria pubblica e di quella privata. L’evento che più acutamente ha risentito del problema del falso in età contemporanea è certamente il genocidio degli ebrei compiuto dai nazisti durante la Seconda Guerra Mondiale perché è proprio al cuore dell’impresa genocidiaria che è avvenuta la grande falsificazione che ha alimentato qualsiasi successivo discorso revisionista. L’emersione del testimone sulla scena pubblica ha posto pertanto in modo acuto il problema dello statuto della testimonianza rendendo l’analisi del funzionamento della memoria indispensabile per comprendere quanto un testimone sia molto più utile per la descrizione, non tanto del fatto in sé, ma del modo in cui l’evento è stato socialmente codificato, registrato e trasmesso. Il legame tra i casi esaminati, pur nella loro estrema eterogeneità, spaziando da false autobiografie, come quella di Binjamin Wilkomirski, a testi controversi, come quello di Jean-François Steiner, o da racconti contestati, come quelli di Deli Strummer e Herman Rosenblat, a narrazioni che nel tempo hanno subito importanti variazioni, come nel caso Aubrac e nelle vicende del libro di Alcide Cervi, sarà stabilito grazie alla centralità giocata, in ognuno di essi, dalla forma testimoniale e dall’altrettanto fondamentale argomentazione in termini di affaire. Il problema del falso è stato perciò indagato all’interno delle ragioni storiche e culturali che hanno determinato la formazione discorsiva che ha per soggetto il testimone e la testimonianza come più autentico punto di vista sugli eventi del passato con le relative conseguenze sul piano storico e pubblico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obbiettivo. Analizzare la funzionalità polmonare e diaframmatica dopo interventi di plicatura del diaframma con rete di rinforzo peri-costale eseguiti per relaxatio e riparazione di ernia transdiaframmatica cronica mediante riduzione e sutura diretta. Metodi. Dal 1996 al 2010, 10 pazienti con relaxatio unilaterale del diaframma e 6 pazienti con ernia transdiaframmatica cronica misconosciuta sono stati sottoposti a chirurgia elettiva. Gli accertamenti preoperatori e al follow-up di 12 mesi includevano prove di funzionalità respiratoria, misura della pressione massimale inspiratoria alla bocca in clino e ortostatismo, emogasanlisi, TC del torace e dispnea score. Risultati. I pazienti dei due gruppi non differivano in termini di funzionalità respiratoria preoperatoria nè di complicanze postoperatorie; al follow-up a 12 mesi il gruppo Eventrazione mostrava un significativo aumento del FEV1% (+18,2 – p<0.001), FVC% (+12,8 – p<0.001), DLCO% (+6,84 – p=0,04) e pO2 (+9,8 mmHg – p<0.001). Al contrario nrl gruppo Ernia solo il miglioramento della pO2 era significativo (+8.3 – p=0.04). Sebbene la massima pressione inspiratoria (PImax) fosse aumentata in entrambi i gruppi al follow-up, i pazienti operati per ernia mostravano un miglioramento limitato con persistente caduta significativa della PImax dall’ortostatismo al clinostatismo (p<0.001). Il Transitional dyspnoea score è stato concordante con tali miglioramenti pur senza differenze significative tra i due gruppi. La TC del torace ha evidenziato una sopraelevazione dell’emidiaframma suturato, senza recidiva di ernia, mentre i pazienti sottoposti a plicatura hanno mantenuto l’ipercorrezione. Conclusioni. L’utilizzo di un rinforzo protesico è sicuro e sembra assicurare risultati funzionali migliori a distanza in termini di flussi respiratori e di movimento paradosso del diaframma (valutato mediante PImax). Lacerazioni estese del diaframma coinvolgenti le branche principali di suddivisione del nervo frenico si associano verosimilmente a una relaxatio che può quindi ridurre il guadagno funzionale a lungo termine se non adeguatamente trattata mediante l’utilizzo di un rinforzo protesico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Infantile hemangiomas (IHs) are the most common benign neoplastic pathology of childhood; their natural history generally involves three phases: after the onset, which usually occurs in the first weeks of life, there is the proliferation phase where the IH reaches its maximum development and it is followed by the spontaneous involution which leads to the IH regression. The duration and the extent of these phases may vary widely even though in most of the cases the involution process begins around twelve months of life and the regression, complete or partial, is completed around seventh-ninth year of life. The majority of the IHs does not require any treatment. However, 10%-20% is likely to develop serious complications, functional impairments or aesthetic alterations and entail a timely treatment. Although there is no treatment protocol currently shared, therapies usually used in cases with a complication risk consist in: systemic or intralesional steroids as a first choice; interferon α, vincristine and/or bleomicin as second or third choice and/or surgical treatment. Propranolol, a non-selective beta-blocker, has been used for cardiovascular diseases even in childhood for decades. Since 2008 it has been widely used in the IHs treatment, although it is still "off-label". In literature there are hundreds of cases and some clinical studies that show the effectiveness and safety of this drug for this indication. Thanks to a multidisciplinary team (Dermatologists, Cardiologists, Paediatricians, and Radiologists) of S. Orsola-Malpighi Hospital, a clinical study, which has been previously approved by the ethics committee, is carried out in order to evaluate the efficacy and safety of systemic propranolol in the treatment of IHs in paediatric age. At the end of 2012, 78 patients underwent this treatment: the results we have obtained so far show a good efficacy and safety profile in agreement with the data provided by the literature.