950 resultados para Memorie non volatili, Memorie magnetoresistive, Memorie ferroelettriche, Memorie a cambiamento di fase


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’arteria principale dell’antica Regio VIII si è dimostrata l’elemento cardine per la fondazione delle città in epoca romana. Le città che nascono sulla via Emilia entrano in un rapporto di simbiosi e di dipendenza con la strada antica, tanto che quest’ultima diventa l’asse generatore di tutta la forma urbis. Questo tracciato generatore è rimasto immutato se non per alcune sporadiche eccezioni e si è consolidato, nella sua forma e funzione, andando a creare così un’integrazione perfetta con l’imago urbis. Anche la città di Claterna deve la sua fondazione alla presenza di questo importante segno, tracciato nel 187 a.C.; un segno che nasce da un’astrazione e dal possesso dell’idea di linea retta da parte dei romani, il cui compito è dare ordine allo spazio che consideravano un caos, e come tale doveva essere organizzato in maniera geometrica e razionale. La via Emilia diventa l’asse generatore della città, la quale segue appunto l’orientamento fornito dall’asse stesso che assume il ruolo di decumanus maximus per l’insediamento, e sulla quale si baserà la costruzione della centuriazione claternate. Il tracciato così forte e importante dal punto di vista funzionale assume però in contemporanea un ruolo di divisione della civitas, in quanto va a separare in maniera netta la zona sud da quella nord. Questa situazione è maggiormente percepibile oggi rispetto al passato, vista la situazione di incolto che prevale sull’area. L’area di progetto risulta infatti tagliata dalla strada statale ed è di conseguenza interessata da problematiche di traffico veicolare anche pesante; tale situazione di attraversamento veloce non permette al viaggiatore di cogliere una lettura completa e unitaria di quello che era l’antico insediamento romano. Inoltre la quota di campagna, che racchiude il layer archeologico, è più bassa rispetto alla quota di percorrenza della strada e non essendoci alcun elemento visivo che possa richiamare l’attenzione di chi percorre questo tratto di via Emilia, l’area d’interesse rimane completamente nascosta e inserita nel contesto paesaggistico. Il paesaggio diventa l’unico immediato protagonista in questo frangente di via Emilia; qui è diverso da molte altre situazioni in cui l’abitato si accosta alla strada, o ancora da quando la strada antica, e ciò si verifica nei maggiori centri urbani, viene ad essere inglobata nel reticolo cittadino fatto di strade ed edifici e con esso si va a confondere ed integrare. Infatti nella porzione compresa tra il comune di Osteria Grande e la frazione di Maggio, ci si trova di fronte ad un vero e proprio spaccato della conformazione geomorfologica del territorio che interessa tutta la regione Emilia Romagna: rivolgendosi verso sud, lo sguardo è catturato dalla presenza della catena appenninica, dove si intravede il grande Parco dei Gessi, che si abbassa dolcemente fino a formare le colline. I lievi pendii si vanno a congiungere con la bassa pianura che si scontra con il segno della via Emilia, ma al di là della quale, verso nord, continua come una distesa senza limite fino all’orizzonte, per andare poi a sfumare nel mare Adriatico. Questi due aspetti, la non percepibilità della città romana nascosta nella terra e la forte presenza del paesaggio che si staglia sul cielo, entrano in contrasto proprio sulla base della loro capacità di manifestarsi all’occhio di chi sta percorrendo la via Emilia: la città romana è composta da un disegno di tracce al livello della terra; il paesaggio circostante invece diventa una vera e propria quinta scenica che non ha però oggetti da poter esporre in quanto sono sepolti e non sono ancora stati adeguatamente valorizzati. Tutte le città, da Rimini a Piacenza, che hanno continuato ad esistere, si sono trasformate fortemente prima in epoca medievale e poi rinascimentale tanto che il layer archeologico romano si è quasi completamente cancellato. La situazione di Claterna è completamente diversa. La città romana è stata mano a mano abbandonata alla fine del IV secolo fino a diventare una delle “semirutarum urbium cadavera” che, insieme a Bononia, Mutina, Regium e Brixillum fino a Placentia, Sant’Ambrogio ha descritto nella sua Epistola all’amico Faustino. Ciò mostra molto chiaramente quale fosse la situazione di tali città in età tardo-antica e in che situazione di degrado e abbandono fossero investite. Mentre alcune di queste importanti urbes riuscirono a risollevare le loro sorti, Claterna non fu più interessata dalla presenza di centri abitati, e ciò è dovuto probabilmente al trasferimento degli occupanti in centri e zone più sicure. Di conseguenza non si è verificato qui quello che è successo nei più importanti centri emiliano-romagnoli. Le successive fasi di sviluppo e di ampliamento di città come Bologna e Piacenza sono andate ad attaccare in maniera irrecuperabile il layer archeologico di epoca romana tanto da rendere lacunosa la conoscenza della forma urbis e delle sue più importanti caratteristiche. A Claterna invece lo strato archeologico romano è rimasto congelato nel tempo e non ha subito danni contingenti come nelle città sopra citate, in quanto il suolo appunto non è stato più interessato da fenomeni di inurbamento, di edificazione e di grandi trasformazioni urbane. Ciò ha garantito che i resti archeologici non venissero distrutti e quindi si sono mantenuti e conservati all’interno della terra che li ha protetti nel corso dei secoli dalla mano dell’uomo. Solo in alcune porzioni sono stati rovinati a causa degli strumenti agricoli che hanno lavorato la terra nell’ultimo secolo andando ad asportare del materiale che è stato quindi riportato alla luce. E’ stata proprio questa serie di ritrovamenti superficiali e fortunati a far intuire la presenza di resti archeologici, e che di conseguenza ha portato ad effettuare delle verifiche archeologiche con sondaggi che si sono concluse con esiti positivi e hanno permesso la collocazione di un vincolo archeologico come tutela dell’area in oggetto. L’area di progetto non è quindi stata contaminata dall’opera dell’uomo e ciò ha garantito probabilmente, secondo le indagini degli archeologi che lavorano presso il sito di Claterna, un buono stato di conservazione per gran parte dell’insediamento urbano e non solo di alcune porzioni minori di città o di abitazioni di epoca romana. Tutto questo attribuisce al sito una grande potenzialità visto che i casi di ritrovamenti archeologici così ampi e ben conservati sono molto limitati, quasi unici. Si tratterebbe quindi di riportare alla luce, in una prospettiva futura, un intero impianto urbano di epoca romana in buono stato di conservazione, di restituire un sapere che è rimasto nascosto e intaccato per secoli e di cui non si hanno che altre limitatissime testimonianze.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Architettura Alla domanda “cosa fa un architetto?” Non sono mai riuscito a dare una risposta soddisfacente ma leggendo gli scritti dei grandi architetti una cosa mi ha affascinato particolarmente: tutti raccontano di come nel progettare ci sia un equilibrio (scontro?) tra le conoscenze, le regole e la personale visione ed esperienza, in cui tutto si libera. Libeskind afferma di aver disegnato, in preda ad illuminazioni, più su tovagliolini da bar che su carta da disegno; Zumthor parla addirittura di momenti in cui si è come in preda ad un effetto di una droga: intuizioni! L’architetto progetta. Architetto come genio, particolarmente sensibile, quasi illuminato. “L’architettura non è per tutti”; mi chiedo allora non solo se esistono leggi, soluzioni o binari capaci di guidare anche chi è privo di tale estro ma se esiste un’Architettura comprensibile a tutti (anche alle generazioni future). Ancora una volta se penso ad un denominatore comune di benessere, una possibile guida, penso alla natura e ai suoi ritmi, un’Architettura che mantenga i legami con essa può forse ricordarci che siamo tutti ricchi. L’Architettura intesa come scoperta e non come invenzione, dunque onesta. Carcere Lo studio di una realtà come il carcere mi ha permesso di pormi numerose domande sul ruolo dell’Archittura, a partire dalla riflessione su ciò che significa e rappresenta il progetto architettonico. Studiando l’evoluzione delle carceri, legate indissolubilmente all’evoluzione del concetto di pena, è possibile dare molte risposte ai quesiti dovuti alle scelte progettuali. (costantemente stimolato dalle frequenti similitudini tra carcere e metropoli). Una contrapposizione dovuta al significato dell’abitare insieme al concetto di “qualità” rapportati al concetto di pena senza dimenticare le indicazioni delle norme di sicurezza. L’ Architettura intesa come ricerca del maggior benessere abitativo credo che debba comunque essere ricercata, anche nello spazio carcerario. Non vi è nessun paradosso se si pensa che lo scopo ultimo dello Stato è di voler reintegrare il detenuto in modo tale che non rappresenti più un pericolo e di conseguenza non gravi mai più sullo Stato stesso (troppo spesso chi è stato in carcere ci rientra dopo poco e per gli stessi motivi). “Le pene non possono consistere in trattamenti contrari al senso di umanità e devono tendere alla rieducazione del condannato”(art.27 Cost.) è da questa consapevolezza che dipende l’organizzazione della forma dello spazio e di tali strutture. Naturalmente il grande limite è imposto nel non creare situazioni di benessere tale da portare lo sprovveduto più disperato a commettere il crimine per poter godere dei servizi del carcere. Per questo motivo penso che una soluzione possa essere la ricerca di un equilibrio tra libertà degli spazi condivisi e i limiti dello spazio privato. A mio avviso tutte le esperienze positive devono avvenire in spazi collettivi insieme non solo agli altri carcerati ma anche con la società stessa (penso al Giardino degli incontri di Michelucci in cui c’è una attività teatrale gestita dagli enti comunali); mentre i limiti della reclusione penso debbano essere rappresentati dalla cella, da sempre momento di riflessione e di scoperta di sé stessi. Il detenuto impara a conoscere la società, impara a rispettarla ed una volta libero è più logico che sia disposto a ricambiare le attenzioni ricevute. La cella invece, deve rappresentare il momento in cui è forte il distacco con la società, in cui la si può guardare senza poterne fare parte: la cella come momento dell’attesa e non come comodo rifugio(seppur rispettando un livello di comfort ideale). Il disagio percepito non è da considerare una pena psicologica (anch’essa da evitare) o come un momento di purificazione (immaginario cristiano della colpa e dell’espiazione) ma più semplicemente come una fase del processo in grado (si spera) di recuperare il detenuto: è il desiderio e la consapevolezza di poter vivere insieme agli altri che porta al reinserimento. Di conseguenza è possibile dare una ulteriore risposta interessante; il carcere dovrà essere connesso alla città in modo tale che sia possibile l’interazione tra i due, inoltre permetterebbe alle persone in semi-libertà o in attesa di giudizio un più consono trattamento. Mettere in relazione città e carcere significa integrarli e completare le reciproche identità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scompenso cardiaco è una sindrome clinica complessa di notevole prevalenza ed incidenza nella popolazione generale, con elevata mortalità e morbidità. Le numerose alterazioni strutturali e funzionali che lo caratterizzano sono in grado di generare contemporaneamente diversi tipi di alterazioni del ritmo: dalle tachiaritmie ventricolari/sopraventricolari alle turbe della conduzione dell’impulso con bradi-aritmie e dissincronie di contrazione. La cardioversione della fibrillazione atriale e la resincronizzazione cardiaca rappresentano due terapie elettriche molto importanti in tale contesto. Le modificazioni emodinamiche, funzionali e neuro-ormonali indotte da tali trattamenti, tanto in acuto che a medio/lungo termine, possono generare numerose informazioni sulla fisio-patologia di questa sindrome. Il progetto scientifico alla base del presente manoscritto è costituito da due studi volti ad affrontare separatamente le tematiche accennate. Il primo studio è stato focalizzato sulle modificazioni indotte in 38 pazienti dalla terapia di resincronizzazione cardiaca sui parametri di circolazione periferica. I risultati ottenuti evidenziano come il trattamento consenta un incremento del flusso muscolare, soprattutto in chi presenterà un rimodellamento ventricolare inverso. La diversa eziologia sottostante (ischemica vs. non ischemica) appare influenzare i parametri relativi alla circolazione periferica tanto in acuto, quanto in cronico. Il diverso comportamento in merito alle variabili della circolazione periferica nelle valutazioni seriate suggerisce che la terapia di resincronizzazione cardiaca abbia, principalmente nei pazienti responders, effetti non solo “centrali”, e che essi non siano puramente meccanici ma mediati da fattori probabilmente di natura neuro-ormonale. Il secondo studio si è occupato della cardioversione elettrica esterna di fibrillazione atriale, un’aritmia che presenta strette relazioni con l’insufficienza cardiaca. 242 pazienti sono stati sottoposti a cardioversione elettrica esterna con onda bifasica, utilizzando due 1 diverse configurazioni di erogazione dell’energia: antero-posteriore con patch adesivi e antero-apicale con piastre standard. Il ripristino del ritmo sinusale è stato ottenuto in oltre l’80% dei pazienti già col primo shock a 120J. Sebbene fra le due metodiche non si evidenzi una significatività in termini di efficacia, i risultati ottenuti suggeriscono che la scelta della specifica configurazione di shock dovrebbe prendere in considerazione anche alcune variabili biometriche: peso, altezza e superficie corporea del paziente. Il ripristino ed il mantenimento del ritmo sinusale inducono un’importante modificazione della concentrazione di NT-pro-BNP. Un’elevata attivazione neuro-ormonale pre-procedura predispone alle recidive a medio-lungo termine, mentre le recidive nel breve-medio periodo appaiono influenzate da tale fattore solo in corso di profilassi anti-aritmica per il mantenimento del ritmo sinusale. In conclusione i risultati del progetto di ricerca sottolineano come trattamenti mirati a parametri strettamente cardiaci (ritmo e conduzione dell’impulso) siano in grado di determinare importanti modificazioni sugli equilibri emodinamici e neuro-ormonali dell’intero organismo, confermando la stretta relazione tra questi parametri e l’evoluzione del quadro clinico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Partendo dal problema del rapporto fra la ricostruzione di un evento storico e lo statuto del testo che lo ricostruisce, la tesi si concentra nella lettura di opere riguardanti la Seconda guerra mondiale. Sono in questo senso cruciali due opere autobiografiche trattate nella prima parte del lavoro, Rue Labat Rue Ordener di Sarah Kofman (1993) e Kindheitsmuster di Christa Wolf (1976). In questi due testi la dottoranda prova a recuperare da una parte la rimemorazione letteraria di due esperienze infantili della guerra insieme opposte e complementari dal punto di vista del posizionamento della testimonianza. Il testo della Wolf ibrida la narrazione finzionale e la memoria dell’evento storico vissuto nel ricordo di una bambina tedesca, il testo della Kofman recupera in una maniera quasi psicanalitica la memoria di una bambina ebrea vittima inconsapevole e quesi incosciente della Shoah. Di fronte a due topoi apparentemente già piu volte ripercorsi nella letteratura critica del trauma postconflitto, la tesi in questione cerca di individuare il costituirsi quasi inevitabile di un soggetto identitario che osserva, vive e successivamente recupera e racconta il trauma. Se alcune posizioni della moderna storiografia e della contemporanea riflessione sulla scrittura storiografica, sottolineano la forza e l’importanza dell’elemento narrativo all’interno della ricostruzione storica e dell’analisi dei documenti, questa tesi sembra indicare una via possibile di studio per la letteratura comparata. Una via, cioè, che non si soffermi sui fattori e sui criteri veridizionali del testo, criteri e fattori che devono restare oggetto di studio per gli storici , ma che piuttosto indaghi sul nesso ineludibile e fondativo che la scrittura stessa svela e pone in essere: il trauma, l’irrompere dell’evento storico nell’individuo diventa elemento costitutivo della propria identità, elemento al quale è difficile dare una posizione stabile ma che allo stesso tempo non si può evitare di raccontare, di mettere in discorso. Nella narrazione letteraria di eventi storici esiste dunque un surplus di senso che sta tutto nella costituzione di una posizione dalla quale raccontare, di un punto di vista. Il punto di vista (come ci ricorda De Certeau ne Les lieux des autres in quel saggio dedicato ai cannibali di Montaigne,che viene poi ripreso senza essere mai citato da Ginzburg ne Il filo e le tracce) non è mai dato a priori nel discorso, è il risultato di un conflitto e di una lotta. Il testo che rende conto e recupera la memoria di un passato storico, in particolare di un passato storico conflittuale, di una guerra, di una violenza, per quanto presenti un punto di vista preciso e posizionato, per quanto possa apparire un frutto di determinate strategie testuali e di determinati obiettivi pragmatici, è pur sempre una narrazione il cui soggetto porta in sé, identitariamente, le ferite e i traumi dell’evento storico. Nei casi di Wolf e Kofman abbiamo quindi un rispecchiamento reciproco che fra il tentativo di una ricostruzione della memoria infantile e il recupero dell’elemento intersoggettivo e storico si apre alla scrittura e alla narrazione. La posizione del soggetto che ha vissuto l’irrompere del dramma storico nel discorso lo costituisce e lo delega a essere colui che parla e colui che vede. In un qualche modo la Storia per quanto possa essere creatrice di eventi e per quanto possa trasformare l’esistenza del soggetto non è essa stessa percepibile finché non si posiziona attraverso il soggetto trasformato e modificato all’interno del discorso. In questa continua ricerca di un equilibrio possibile fra realtà e discorso si pone il problema dell’essere soggetto in mezzo ad altri soggetti. E questo in un duplice aspetto: nell’aspetto della rappresentazione dell’altro, cioè nel problema di come la memoria riorganizzi e ricrei i soggetti in gioco nell’evento storico; e poi nella rappresentazione di se stesso per gli altri, nella rappresentazione cioe del punto di vista. Se nel romanzo autobiografico di Kofman tutta la storia veniva a ricondursi alla narrazione privata del soggetto che, come in una seduta psicanalitica recupera e insieme si libera del proprio conflitto interiore, della propria memoria offesa; se nel romanzo di Wolf si cercava un equilibrio fra una soggettivita infantile ormai distante in terza persona e una soggettività rammemorante che prendeva posizione nel romanzo nella seconda persona; la cerniera sia epistemologica sia narratologica fra la prima e la seconda parte della tesi pare essere Elsa Morante e il suo romanzo La Storia. L’opera della Morante sembra infatti farsi pieno carico della responsabilità di non poter piu ridurre la narrazione del trauma alla semplice presa in carico del soggetto autobiografico. Il soggetto che, per dirla ancora con De Certeau, può esprimere il proprio punto di vista perche in qualche modo si è salvato dalla temperie della storia, non si pone nel discorso come punto di inizio e di fine di qualsiasi percezione del trauma, ma si incarna in uno o più personaggi che in un qualche modo rappresentino l’irrapresentabile e l’irrapresentato. La storia diventa quindi elemento non costitutivo di un'identità capace di ri-raccontarsi o almeno non solo, diventa fattore costitutivo di un’identità capace di raccontare l’altro, anzi gli altri, tutti coloro che il conflitto, la violenza ha in un qualche modo cancellato. Così accade all’infanzia tradita e offesa del piccolo Useppe, che viene soffocato non solo nella sua possibilita di svilupparsi, di essere punto di vista del discorso, ma anche nella possibilita di essere osservatore vivo dell’evento; cosi accade a Ida, donna e madre, che la Storia lentamente e inesorabilmente spersonalizza riducendola a essere soggetto passivo e vittima degli eventi. Ecco quindi che la strada aperta dalla Morante permette alla memoria di proiettarsi in una narrazione comune e di condividere e suddividere la posizione centrale del soggetto in una costellazione differente di soggetti. A questo punto si apre, attraverso le tecniche della storia orale e la loro narrativizzazione, una strategia di recupero della memoria evidenziata nell’ultima parte della tesi. La strada intrapresa da autori come i Wu Ming e come Andrea Levy ne è un esempio. Sganciati per evidenti ragioni biografiche e anagrafiche (sono tutti nati ben dopo la fine del secondo conflitto mondiale) da qualsiasi tentazione autobiografica, i primi intraprendono una vera e propria ridistribuzione dei punti di vista sulla storia. In romanzi come Manituana si viene a perdere, almeno a un primo e forse piu superficiale livello, qualsiasi imposizione fissa del punto di vista. Una molteplicità di soggetti si prende carico di raccontare la storia da differenti posizioni, ma la apparente molteplicità degli sguardi non si riduce a una frammentazione dell’etica del racconto quanto piuttosto alla volontà di fare emergere tra gli altri anche il punto di vista dello sconfitto e dell’inerme. Al passato oscuro della violenza storica si contrappone in un qualche modo la messa in discorso del soggetto che cerca attraverso la costituzione non solo di un soggetto ma di una pluralitàdi voci , di ritrovare un’ armonia, di riassimilare la propria memoria condividendola nel testo letterario.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo di questo lavoro è lo studio della funzionalizzazione del fenolo mediante vie sintetiche “green”, che utilizzino quindi reagenti non clorurati e catalizzatori eterogenei, quindi facilmente recuperabili e riutilizzabili. Esistono però altri derivati fenolici di interesse commerciale, quali il catecolo, in quanto reagente di partenza per svariate molecole (tra cui appunto il DOPET) utilizzate in vari ambiti applicativi (alimentare, cosmetica, farmaceutica, agrochimica). In particolare, lo studio è stato focalizzato sulla sintesi dell’IDROSSITIROSOLO (o DOPET). Le prove effettutate con fenolo non hanno portato alla formazione del composto desiderato, ma di altri prodotti che comunque hanno interesse commerciale; ad esempio, è stato ottenuto il 2-fenossietanolo con elevata resa e selettività. Oltre al fenolo, ho studiato la reattività del metilendiossobenzene; con entrambi è stato ottenuto (seppur con basse rese) l’attacco all’anello da parte dell’etil gliossilato, formando così un intermedio potenzialmente utile per la sintesi dell’idrossitirosolo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro della presente Tesi è stato lo sviluppo della sintesi asimmetrica di aziridine chirali a partire da chetoni α,β-insaturi α-sostituiti, verificando la possibilità di applicare ammine primarie come organocatalizzatori attraverso un meccanismo tandem ione imminio-enammina. Nelle nostre prove le migliori ammine primarie si sono rivelate gli pseudoenantiomeri 9-ammino-9-deossi-epi-idrochinina e idrochinidina, e i migliori acidi per formare il sale catalitico sono stati acido trifluoroacetico (TFA) e acido salicilico. Il fattore chiave per le reazioni di aziridinazione è stata la scelta della molecola sorgente di azoto, che deve avere comportamento nucleofilico nel primo step di aza-Michael (via ione imminio), e comportamento elettrofilico nello step di chiusura del ciclo (via enammina). Le prove preliminari sono state condotte con il sale catalitico formato dalla 9-ammino-9-deossi-epi-idrochinina e TFA in toluene a 50 °C. Migliori risultati sono stati ottenuti sostituendo la sorgente di azoto utilizzata inizialmente e utilizzando il sale catalitico composto da 9-ammino-9-deossi-epi-idrochinidina e acido salicilico in toluene a 50 °C. In questo caso la resa è stata pari a 56% ed eccesso enantiomerico (ee) del 90%. Sfruttando quindi le condizioni ottimizzate inizialmente, abbiamo provato la reazione su altri due chetoni con maggiore ingombro sterico rispetto a quello utilizzato per l’ottimizzazione iniziale del processo. In entrambi i casi la reattività è stata sensibilmente inferiore a quanto atteso, con rese non superiori al 14%. Inoltre anche i valori di ee sono stati poco soddisfacenti. Ipotizziamo che questi risultati deludenti siano causati dall’ingombro sterico della catena in posizione β che impedisce l’avvicinamento del catalizzatore, il quale, non creando un intorno asimmetrico, non crea una distinzione tra le due possibili direzioni di attacco del nucleofilo. Da questi ultimi risultati sembra che la reazione di aziridinazione da noi ottimizzata sia per ora limitata al solo chetone utilizzato nella fase iniziale del lavoro. Al fine di estendere l’applicazione di queste condizioni, nel futuro saranno effettuate prove anche con altri chetoni α,β-insaturi α-sostituiti, ma che non presentino sostituzione in posizione β, dato che abbiamo osservato che essa rappresenta il maggiore limite per la reattività e selettività. Infine sarà importante determinare la configurazione assoluta del prodotto finora ottenuto, mediante spettroscopia ECD e VCD. E’ infatti importante conoscere tutte le caratteristiche chimiche e fisiche di prodotto ottenuto, in modo da avere maggiore conoscenza del processo da noi sviluppato, per poterlo migliorare ed estenderne l’applicabilità in futuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione: Il cervico-carcinoma è la seconda neoplasia maligna per incidenza e mortalità nelle donne in tutto il mondo dopo il cancro al seno. L’infezione persistente da Papillomavirus Umani (HPV) è causa necessaria dell’insorgenza del cervico-carcinoma e delle sue lesioni pre-cancerose. L’infezione da HPV si associa anche ad altri carcinomi del distretto ano-genitale (a livello anale, vulvare, vaginale e del pene) e a circa il 25% dei carcinomi squamosi dell’orofaringe. I circa 40 genotipi di HPV che infettano la mucosa genitale vengono suddivisi in alto rischio (HR-HPV) e basso rischio (LR-HPV) oncogeno a seconda della alta e bassa associazione con la neoplasia cervicale. I 13 genotipi a più alto rischio oncogeno sono 16, 18, 31, 33, 35, 39, 45, 51, 52, 56, 58, 59 e 68. Di questi, otto (16, 18, 31, 33, 35, 45, 52 e 58) sono associati alla maggior parte dei carcinomi cervicali (circa 89%) e i genotipi 16 e 18 da soli sono riscontrati nel 70% circa delle neoplasie. L’insorgenza e progressione delle lesioni preneoplastiche cervicali è, però, associata non solo alla presenza di HPV ad alto rischio, ma, soprattutto, alla persistenza virale (> 18 mesi), alla capacità di integrazione degli HPV ad alto rischio e alla conseguente sovraespressione delle oncoproteine E6/E7. Inoltre, l’integrazione è spesso favorita da un’alta carica virale soprattutto per quanto riguarda alcuni genotipi (HPV16 e 18). L’infezione da HPV non interessa solo la cervice uterina ma tutto il distretto ano-genitale e quello testa-collo. L’HPV, in particolare il genotipo 16, è implicato, infatti, nell’insorgenza delle lesioni preneoplastiche della vulva (VIN) classificate come VIN classiche e nei carcinomi ad esse associati. L’incidenza del carcinoma vulvare in Europa è di 1.5/100.000 di cui circa il 45% è dovuto a HR-HPV (80% ad HPV16). Nonostante l’associazione tra HPV16 e carcinoma vulvare sia alta, ancora poco si conosce sul ruolo della carica virale e dell’integrazione in tali lesioni. Le lesioni che possono presentarsi nella regione testa-collo possono essere sia di natura benigna che maligna. I genotipi più frequentemente riscontrati in associazione a lesioni benigne (papillomi) sono HPV 6 e 11, quelli associati a forme tumorali (HNSCC) sono il genotipo 18 ma soprattutto il 16. Molti aspetti del coinvolgimento di HPV in queste patologie non sono ancora perfettamente conosciuti e spesso studi su tale argomento hanno mostrato risultati contraddittori, soprattutto perché vengono utilizzate metodiche con gradi diversi di sensibilità e specificità. Recenti dati di letteratura hanno tuttavia messo in evidenza che i pazienti affetti da HNSCC positivi ad HPV hanno una elevata risposta al trattamento chemioradioterapico rispetto ai pazienti HPV-negativi con un notevole impatto sul controllo locale e sulla sopravvivenza ma soprattutto sulla qualità di vita di tali pazienti, evitando di sottoporli a chirurgia sicuramente demolitiva. Scopo del lavoro: Sulla base di queste premesse, scopo di questo lavoro è stato quello di valutare l’importanza di marker quali la presenza/persistenza di HPV, la carica virale, la valutazione dello stato fisico del genoma virale e l’espressione degli mRNA oncogeni nella gestione di pazienti con lesioni preneoplastiche e neoplastiche di diverso grado, associate a papillomavirus mucosi. Per la valutazione dei markers virologici di progressione neoplastica abbiamo sviluppato dei saggi di real time PCR qualitativi e quantitativi studiati in modo da poter fornire, contemporaneamente e a seconda delle esigenze, risposte specifiche non solo sulla presenza e persistenza dei diversi genotipi di HPV, ma anche sul rischio di insorgenza, progressione e recidiva delle lesioni mediante lo studio di markers virologici quali carica virale, integrazione ed espressione degli mRNA. Abbiamo pertanto indirizzato la nostra attenzione verso tre popolazioni specifiche di pazienti: - donne con lesioni vulvari preneoplastiche (VIN) e neoplastiche, allo scopo di comprendere i complessi meccanismi patogenetici di tali patologie non sempre associate ad infezione da HPV; - pazienti con lesioni maligne a livello della regione testa-collo allo scopo di fornire informazioni utili all’elaborazione di un percorso terapeutico mirato (radiochemioterapico o chirurgico) a seconda o meno della presenza di infezione virale; - donne con lesioni cervicali di alto grado, trattate chirurgicamente per la rimozione delle lesioni e seguite nel follow-up, per stabilire l’importanza di tali marker nella valutazione della persistenza virale al fine di prevenire recidive di malattia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa dissertazione è quello di costruire un modello di promozione della salute nel contesto di lavoro in relazione al consumo di sostanze psicoattive fra lavoratori, attraverso il confronto tra la situazione italiana e inglese. L’ipotesi di fondo rimanda all’idea che i luoghi di lavoro possano rappresentare setting d’elezione per i progetti di prevenzione non solo perché alcuni studi dimostrano l’esistenza di fattori di rischio connessi alla mansione rispetto alle condotte relative allo stile di vita, ma anche perché il consumo di alcol e droghe è altamente diffuso tra i lavoratori e questo comporta rischi per la sicurezza e la salute personale nonché quella dei colleghi di lavoro. Si tratta quindi di indagare il rapporto tra contesto lavorativo e utilizzo di sostanze al fine di suggerire  alla luce degli studi internazionali in materia e delle riflessioni condotte dai soggetti coinvolti nella ricerca che si andrà a presentare  linee guida e indicazioni operative per la realizzazione di interventi di promozione alla salute nei contesti professionali. A tal fine, saranno analizzati gli esiti di 13 focus group che hanno coinvolto esperti italiani e 6 interviste somministrate a esperti inglesi volti a definire la situazione attuale in Italia e Gran Bretagna in materia di prevenzione del consumo di alcol e droghe nei luoghi di lavoro. In particolare, l’analisi verterà sulle seguenti aree: - Percezione circa la diffusione dei consumi nei luoghi di lavoro - Presentazione delle politiche adottate, in logica comparativa, tra i due paesi. - Analisi critica degli interventi e problematiche aperte. L’analisi del materiale empirico permette di delineare due modelli costruiti sulla base dei focus group e delle interviste: - in Italia si può affermare che prevalga il cd. modello della sicurezza: di recente trasformazione, questo sistema enfatizza la dimensione del controllo, tanto che si parla di sorveglianza sanitaria. É orientato alla sicurezza concepita quale rimozione dei fattori di rischio. Il consumo di sostanze (anche sporadico) è inteso quale espressione di una patologia che richiede l’intervento sanitario secondo modalità previste dal quadro normativo: una procedura che annulla la discrezionalità sia del datore di lavoro sia del medico competente. Si connota inoltre per contraddizioni interne e trasversali rispetto alle categorie lavorative (i controlli non si applicano alle professioni associate a maggiore prestigio sociale sebbene palesemente associate a rischio, come per esempio i medici) e alle sostanze (atteggiamento repressivo soprattutto verso le droghe illegali); - in Gran Bretagna, invece, il modello si configura come responsabilità bilaterale: secondo questo modello, se è vero che il datore di lavoro può decidere in merito all’attuazione di misure preventive in materia di alcol e droghe nei luoghi di lavoro, egli è ritenuto responsabile della mancata vigilanza. D’altro canto, il lavoratore che non rispetta quanto previsto nella politica scritta può essere soggetto a licenziamento per motivi disciplinari. Questo modello, particolarmente attento al consumo di tutte le sostanze psicoattive (legali e illegali), considera il consumo quale esito di una libera scelta individuale attraverso la quale il lavoratore decide di consumare alcol e droghe così come decide di dedicarsi ad altre condotte a rischio. Si propone di ri-orientare le strategie analizzate nei due paesi europei presi in esame attraverso la realizzazione di un modello della promozione della salute fondato su alcuni punti chiave: – coinvolgimento di tutti i lavoratori (e non solo coloro che svolgono mansioni a rischio per la sicurezza) al fine di promuovere benessere secondo un approccio olistico di salute, orientato ad intervenire non soltanto in materia di consumo di sostanze psicoattive (legali e illegali), ma più in generale sulle condotte a rischio; – compartecipazione nelle diverse fasi (programmazione, realizzazione e valutazione del progetto) del lavoratore, datore di lavoro e medico competente secondo una logica di flessibilità, responsabilizzazione condivisa fra i diversi attori, personalizzazione e co-gestione dell’intervento; – azione volta a promuovere i fattori di protezione agendo simultaneamente sul contrasto dei fattori di rischio (stress, alienazione, scarso riconoscimento del ruolo svolto), attraverso interventi che integrano diverse strategie operative alla luce delle evidenze scientifiche (Evidence-Based Prevention); – ricorso a strumenti di controllo (drug testing) subordinato all’esigenza di tutelare l’incolumità fisica del lavoratore e dei colleghi, da attuarsi sempre e comunque attraverso prassi che non violino la privacy e attraverso strumenti in grado di verificare l’effettivo stato di alterazione psico-fisica sul luogo di lavoro; – demedicalizzazione delle situazioni di consumo che non richiedono un intervento prettamente sanitario, ma che al contrario potrebbero essere affrontate attraverso azioni incentrate sul care anziché la cure; – messa a disposizione di servizi ad hoc con funzione di supporto, counselling, orientamento per i lavoratori, non stigmatizzanti e con operatori di formazione non solamente sanitaria, sull’esempio degli EAPs (Employee Assistence Programs) statunitensi. Si ritiene che questo modello possa trasformare i contesti di lavoro da agenzie di controllo orientate alla sicurezza a luoghi di intervento orientati al benessere attraverso un’azione sinergica e congiunta volta a promuovere i fattori di protezione a discapito di quelli di rischio in modo tale da intervenire non soltanto sul consumo di sostanze psicotrope, ma più in generale sullo stile di vita che influenza la salute complessiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi decenni il concetto di variabile latente ha riscosso un enorme successo nelle discipline statistiche come attestano i numerosi lavori scientifici presenti in letteratura. In particolare, nelle scienze sociali e in psicometria, l’uso del concetto di variabile latente è stato largamente adottato per far fronte al problema di misurare quantità che, in natura, non possono essere direttamente osservate. La vasta letteratura riguardante questa metodologia si espande, in maniera più limitata, anche al campo della ricerca economica ed econometrica. Nonostante esistano studi di modelli a struttura latente applicati a variabili di tipo economico, molto pochi sono i lavori che considerano variabili finanziarie e, finora, praticamente nessun ricercatore ha messo in connessione la teoria standard di portafoglio con la metodologia dei modelli statistici a variabili latenti. L’obiettivo del lavoro è quello di ricorrere alle potenzialità esplicative ed investigative dei metodi statistici a variabili latenti per l’analisi dei fenomeni finanziari. Si fa riferimento, in particolare, ai modelli a classe latente che consentono di sviluppare soluzioni metodologicamente corrette per importanti problemi ancora aperti in campo finanziario. In primo luogo, la natura stessa delle variabili finanziarie è riconducibile al paradigma delle variabili latenti. Infatti, variabili come il rischio ed il rendimento atteso non possono essere misurate direttamente e necessitano di approssimazioni per valutarne l’entità. Tuttavia, trascurare la natura non osservabile delle variabili finanziarie può portare a decisioni di investimento inopportune o, talvolta, addirittura disastrose. Secondariamente, vengono prese in considerazione le capacità dei modelli a classi latenti nel contesto della classificazione. Per i prodotti finanziari, infatti, una corretta classificazione sulla base del profilo (latente) di rischio e rendimento rappresenta il presupposto indispensabile per poter sviluppare efficaci strategie di investimento. Ci si propone, inoltre, di sviluppare un collegamento, finora mancante, tra uno dei principali riferimenti della finanza moderna, la teoria classica del portafoglio di Markowitz, e la metodologia statistica dei modelli a variabili latenti. In questo contesto, si vogliono investigare, in particolare, i benefici che i modelli a variabili latenti possono dare allo studio di ottimizzazione del profilo rischio - rendimento atteso di un portafoglio di attività finanziarie. Lo sviluppo di numeri indici dei prezzi delle attività finanziarie caratterizzati da una solida base metodologica rappresenta un ulteriore aspetto nel quale i modelli a classe latente possono svolgere un ruolo di fondamentale importanza. In particolare, si propone di analizzare il contesto dei numeri indici dei prezzi settoriali, che costituiscono uno dei riferimenti più importanti nelle strategie di diversificazione del rischio. Infine, il passaggio da una specificazione statica ad una analisi dinamica coglie aspetti metodologici di frontiera che possono essere investigati nell’ambito dei modelli markoviani a classi latenti. Il profilo latente di rischio – rendimento può essere, così, investigato in riferimento alle diverse fasi dei mercati finanziari, per le quali le probabilità di transizione consentono valutazioni di tipo previsivo di forte interesse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Punto di partenza per il lavoro presentato, sono le tematiche legate alle pratiche di consumo di cibo in un’ottica che superi una semplice visione utilitaristica delle stesse, mentre viene evidenziato invece il più profondo rapporto uomo-cibo e i fenomeni di socializzazione che ne scaturiscono. Si trovano pertanto a coniugarsi la sociologia dei consumi e la sociologia della cultura. La base per questa visione del cibo e delle pratiche di produzione e consumo ad esso collegate è l’ipotesi che nel rapporto uomo-cibo sia individuabile un livello di significato superiore al mero utilitarismo/nutrizionismo, che si compone di una dimensione strutturale, una dimensione simbolica ed una dimensione metaforica. Il cibo, e di conseguenza tutte le pratiche ad esso collegate (produzione, elaborazione, consumo), rientrano pertanto in maniera naturale nella categoria “cultura”, e quindi, accostandoci al paradigma del passaggio da natura a società, attraverso il cibo si crea e si alimenta la socialità del consorzio umano, e quindi l’umanità stessa. Accostando a queste concettualizzazioni l’idea che il consumo in generale possa diventare una prassi tramite cui esperire una più diffusa ricerca di sostenibilità nello sviluppo del territorio, (facendosi carico delle conseguenze socio-ambientali derivanti dalla fruizione di determinati oggetti piuttosto che altri), si è sviluppata l’ipotesi che al consumo alimentare possa competere un ruolo precipuamente attivo nella definizione di pratiche sociali orientate alla sostenibilità, capaci cioè di integrare attraverso il consumo – e in relazione all’indebolimento delle tradizionali agenzie di socializzazione – quella perdita di senso civico e solidarietà organizzata che sperimentiamo nelle prassi di vita quotidiana. Sul piano operativo, la tesi è articolata in sei capitoli: • Il percorso presentato prende le mosse dalla considerazione che il cibo, inteso in un’ottica sociologica, costituisce un fattore culturale non irrilevante, anzi fondamentale per il consorzio umano. Si fornisce quindi una breve descrizione del ruolo del cibo nei suoi accostamenti con la definizione di un territorio (e quindi con la sua storia, economia e società), con le arti visive, con il cinema, con la musica, ma anche con la sfera sensoriale (tatto, gusto, olfatto) ed emotivo-cognitiva (psiche) dell’uomo. • Successivamente, si analizza nello specifico la funzione socializzante delle pratiche alimentari, ripercorrendo le tappe principali degli studi classici di sociologia e antropologia dell’alimentazione e introducendo anche l’idea di cibo come simbolo e metafora, che si riflettono sul piano sociale e sulle relazioni tra gli individui. La constatazione che le pratiche legate al cibo sono le uniche attività umane da sempre e per sempre irrinunciabili è un chiaro indicatore di come esse giochino un ruolo fondamentale nella socializzazione umana. • Nel terzo capitolo, la prospettiva simbolico-metaforica è la base di un’analisi di tipo storico delle pratiche alimentari, nello specifico delle pratiche di consumo di cibo, dalle origini dell’umanità ai giorni nostri. Viene presentato un excursus essenziale in cui l’attenzione è focalizzata sulla tavola, sui cibi ivi serviti e sugli eventi di socializzazione che si sviluppano attorno ad essa, considerando situazioni storico-sociali oggettive di cui si è in grado, oggi, di ricostruire le dinamiche e le fasi più significative. • Il quarto capitolo costituisce un momento di riflessione teorica intorno al tema della globalizzazione nella contemporaneità. Sia per una logica progressione cronologica all’interno del lavoro presentato, sia per la rilevanza in quanto inerente alla società attuale in cui viviamo, non si è potuto infatti non soffermarsi un po’ più a fondo sull’analisi delle pratiche alimentari nella contemporaneità, e quindi nella società generalmente definita come “globalizzata” (o “mcdonaldizzata”, per dirla alla Ritzer) ma che in realtà è caratterizzata da un più sottile gioco di equilibri tra dimensione locale e dimensione globale, che si compenetrano come anche nel termine che indica tale equilibrio: il “glocale”. In questo capitolo vengono presentati i principali riferimenti teorici relativi a queste tematiche. • Nel quinto capitolo è stata analizzata, quindi, la declinazione in senso “alimentare” della relazione tra globale e locale, e quindi non solo i mutamenti intercorsi nella contemporaneità nelle pratiche di produzione, scambio e consumo di cibo con particolare riferimento ai sistemi culturali e al territorio, ma anche alcune proposte (sia teoriche che pratiche) a garanzia di uno sviluppo sostenibile del territorio, che trovi i suoi fondamenti sulla perpetuazione di modalità tradizionali di produzione, commercio e consumo di cibo. • Nel sesto capitolo viene analizzato un caso di studio significativo, (il movimento Slow Food, con il suo progetto Terra Madre) senza la pretesa di confermare o smentire né le ipotesi di partenza, né i concetti emersi in itinere, ma semplicemente con l’intenzione di approfondire il percorso svolto attraverso l’esemplificazione operativa e la ricerca entro un piccolo campione composto da testimoni significativi e intervistati, sottoposti a colloqui e interviste incentrate su item inerenti i temi generali di questo lavoro e sul caso di studio considerato. La scelta del caso è motivata dalla considerazione che, alla luce delle filosofia che lo anima e delle attività che svolge, il movimento Slow Food con il progetto Terra Madre costituisce una vera e propria eccellenza nella pianificazione di uno sviluppo sostenibile del territorio e delle sue risorse, tanto economiche quanto sociali e culturali. L’intera analisi è stata condotta tenendo presente l’importanza della comparazione e della collocazione del singolo caso non solo nel contesto sociale di riferimento, ma anche in sintonia con l’ipotesi della ricerca, e quindi con l’assunto che le pratiche alimentari possano guidare uno sviluppo sostenibile del territorio. Per analizzare la realtà individuata, si è in primo luogo proceduto alla raccolta e all’analisi di dati e informazioni volte alla ricostruzione della sua storia e del suo sviluppo attuale. Le informazioni sono state raccolte attraverso l’analisi di materiali, documenti cartacei e documenti multimediali. Si è poi proceduto con colloqui in profondità a testimoni significativi individuati nell’ambito delle attività promosse da Slow Food, con particolare riferimento alle attività di Terra Madre; le informazioni sono state elaborate con l’ausilio dell’analisi del contenuto. Alla luce di quanto analizzato, tanto a livello teorico quanto a livello empirico, la tesi si conclude con alcune considerazioni che, in linea con la finalità dichiarata di approfondire (più che di confermare o smentire) le ipotesi di partenza circa un ruolo fondamentale delle pratiche alimentari nello sviluppo sostenibile del territorio, non possono comunque non tendere ad una convalida dei concetti introduttivi. Si individuano pertanto spunti importanti per affermare che nelle pratiche alimentari, nei tre momenti in cui trovano specificazione (la produzione, lo scambio, il consumo), siano individuabili quei semi valoriali che possono dare solidità alle ipotesi di partenza, e che quindi - nell’intento di operare per uno sviluppo sostenibile del territorio - sia possibile farne un valido strumento al fine di costruire dei veri e propri percorsi di sostenibilità ancorati ai concetti di tutela della tradizione locale, recupero e salvaguardia dei metodi tradizionali di produzione e conservazione, certificazione di tipicità, controllo della distribuzione, riscatto e promozione delle modalità tradizionali di consumo con particolare riferimento alle culture locali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Chiunque visiti il Castello di Sorrivoli, può percepire lo straordinario valore testimoniale di questo monumento, dall’aspetto “venerando e pittoresco”, che racchiude in sé quasi mille anni di storia. Il continuo utilizzo del castello, le piccole opere di manutenzione e le campagne di restauro hanno garantito la trasmissione al presente di apparati tipici dell’architettura bellica medievale e del palatium residenziale, ma soprattutto hanno reso possibile leggere parte di questi mille anni direttamente sulla fabbrica. Quello che invece colpisce negativamente è come il castello abbia dovuto adattarsi alle nuove funzioni, imposte aprioristicamente negli ultimi decenni e non viceversa. Spazi straordinari sono stati compromessi, gran parte delle sale sono utilizzate come deposito e le ali del castello, che non possono essere ragionevolmente sfruttate dalla comunità religiosa, si trovano in uno stato di conservazione pessimo, mettendo così a repentaglio la possibilità di continuare questa traditio, intesa col significato latino di tradere ai posteri la memoria del castello. L’approccio alla fabbrica richiedeva dunque, oltre agli interventi sui paramenti, una nuova destinazione d’uso che, coinvolgendo tutto il castello, ne valorizzasse le spazialità e soprattutto permettesse la conservazione di tutte le sue parti costitutive. In secondo luogo, la nuova ipotesi aspirava a confrontarsi con una situazione realistica e sostenibile dal punto di vista della gestione del complesso. Dopo aver valutato quelle che erano le opportunità offerte dal territorio e le vocazioni d’uso del castello stesso, è quindi emersa la necessità di avere due livelli di fruizione, uno che permettesse a tutti di conoscere e visitare il castello e le sue parti più significative e il secondo più materiale, legato alla presenza di tutti quei servizi che rendono confortevole la permanenza delle persone. Per queste ragioni il percorso ha inizio nel parco, con una lettura complessiva del monumento; prosegue, attraverso la postierla, nel piano interrato, dove è allestito un museo virtuale che narra, in maniera interattiva, la storia del castello e termina sulla corte, dove il nuovo volume, che ripropone la spazialità dell’ala crollata, permette di comprendere i legami intrinseci col territorio circostante. La torre centrale assume infine il ruolo di punto culminante di questa ascesa verso la conoscenza del castello, diventando un luogo metaforico di meditazione e osservazione del paesaggio. Il piano terra e il piano primo dell’antico palatium ospitano invece una struttura ricettiva, che aspirando ad un’elevata qualità di servizi offerti, è dotata di punto vendita e degustazione di prodotti tipici e sala conferenze. La scelta di ricostruire l’ala crollata invece, non vuol essere un gesto autografo, ma deriva dall’esigenza di far funzionare al meglio il complesso sistema del castello; sono stati destinati al volume di nuova edificazione quei servizi necessari che però non erano compatibili con la fabbrica antica e soprattutto si è cercato di dar conclusione al racconto iniziato nel giardino. In tal senso la valorizzazione del castello si articola come un percorso di conoscenza che si pone come scopo primario la conservazione del monumento, senza però negare l’innovazione legata alla contemporaneità dell’intervento e alla volontà di volerlo includere in una più ampia dinamica territoriale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Perdita di fase tra il gruppo riempimento polvere/cronoidi con LVDT ed il gruppo piattello durante la fase di arresto a causa della mancanza imprevista di corrente elettrica”. La perdita della fase tra differenti gruppi può avvenire per due ragioni: 1) a causa della cedevolezza di alcuni elementi della catena cinematica 2) per problemi relativi al software che comanda gli assi elettronici e che è responsabile del movimento coordinato dei vari gruppi. La prima ipotesi è molto improbabile in macchine come l’ADAPTA, dove non sono presenti elementi cinematici con elevata cedevolezza (come ad esempio delle cinghie) essendo i movimenti guidati da camme scanalate (che, contrariamente, sono molto rigide) e/o da camme elettriche (motori Brushless). Il secondo caso invece avviene ogni volta che viene a mancare la corrente elettrica in maniera accidentale (ad esempio a causa di un black-out). La mancanza di energia elettrica impedisce al computer a bordo macchina di continuare a monitorare e controllare il funzionamento dei vari assi elettronici della macchina, che sono comandati da motori brushless, che quindi continuano per inerzia il loro moto fino a fermarsi. Siccome ogni gruppo ha un’inerzia e una velocità/accelerazione istantanea diversa e variabile in funzione della posizione assunta all’interno del proprio ciclo nel momento della mancanza di corrente elettrica, i tempi di arresto risultano differenti, e questo causa la perdita di fase. I gruppi riempimento polvere/cronoidi e spingitori fondelli presentano interferenza meccanica col gruppo piattello per una certa durata del suo ciclo; in questa fase gli elementi entrano nelle boccole porta fondelli delle slitte mobili del piattello. È l’unico caso in tutta la macchina in cui parti meccaniche di gruppi diversi, vanno a “intersecare” i propri spostamenti. La progettazione di macchine che presentano interferenze di questo genere è generalmente sconsigliabile poiché si potrebbe presentare il rischio di uno scontro nel caso avvenga una perdita di fase tra i gruppi. Si sono cercate diverse soluzioni mirate a evitare un urto, derivato dall’interferenza meccanica, in caso di black-out oppure di ridurre il più possibile i danni che questa casualità può portare alla macchina. Il gruppo piattello è definito master rispetto a tutti gli altri gruppi; ha un’inerzia molto piccola e questo fa si che, in caso di black-out, il suo arresto avvenga praticamente istantaneamente, al contrario di ciò che avviene per tutti gli altri gruppi slave dotati di inerzia maggiore. Siccome l’arresto del piattello è istantaneo, il pericolo per tastatori e punzoni sollevatori di urto può avvenire solamente per compenetrazione: se gli elementi sono già all’interno della boccola, e restando fermo il piattello, l’inerzia del gruppo che fa proseguire il moto per alcuni istanti non farebbe altro che portarli fuori dalla boccola, non provocando alcun danno. Non vi è perciò il pericolo di “taglio” di questi elementi da parte del piattello. Perciò l’unica possibilità è che il black-out avvenga in un istante del ciclo dove gli elementi si stanno muovendo per entrare nelle boccole mentre anche il piattello è in rotazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato si pone l'obiettivo di analizzare e valutare la sostenibilità dell'intera filiera dell'olio di palma, che viene importato da paesi del Sud Est asiatico per essere utilizzato in Europa per scopi sia energetici che alimentari. Nell'introduzione è inquadrata la problematica dei biocombustibili e degli strumenti volontari che possono essere utilizzati per garantire ed incentivare la sostenibilità in generale e dei biocombustibili; è presente inoltre un approfondimento sull'olio di palma, sulle sue caratteristiche e sulla crescita che ha subito negli ultimi anni in termini di produzione e compra/vendita. Per questa valutazione sono stati impiegati tre importanti strumenti di analisi e certificazione della sostenibilità, che sono stati applicati ad uno specifico caso di studio: l'azienda Unigrà SpA. La certificazione RSPO (Roundtable on Sustainable Palm Oil) è uno strumento volontario per la garanzia della sostenibilità della filiera dell'olio di palma in termini economici (vitalità nel mercato), ambientali (risparmio delle emissioni di gas ad effetto serra o GHG, conservazione delle risorse naturali e della biodiversità) e sociali (preservazione delle comunità locali e miglioramento nella gestione delle aree di interesse). La Global Reporting Initiative è un'organizzazione che prevede la redazione volontaria di un documento chiamato bilancio di sostenibilità secondo delle linee guida standardizzate che permettono alle organizzazioni di misurare e confrontare le loro performance economiche, sociali e ambientali nel tempo. La Direttiva Comunitaria 2009/28/CE (Renewable Energy Directive o RED) è invece uno strumento cogente nel caso in cui le organizzazioni intendano utilizzare risorse rinnovabili per ottenere incentivi finanziari. A seguito di un calcolo delle emissioni di GHG, le organizzazioni devono dimostrare determinate prestazioni ambientali attraverso il confronto con delle soglie presenti nel testo della Direttiva. Parallelamente alla valutazione delle emissioni è richiesto che le organizzazioni aderiscano a dei criteri obbligatori di sostenibilità economica, ambientale e sociale, verificabili grazie a degli schemi di certificazione che rientrano all'interno di politiche di sostenibilità globale. Questi strumenti sono stati applicati ad Unigrà, un'azienda che opera nel settore della trasformazione e della vendita di oli e grassi alimentari, margarine e semilavorati destinati alla produzione alimentare e che ha recentemente costruito una centrale da 58 MWe per la produzione di energia elettrica, alimentata in parte da olio di palma proveniente dal sud-est asiatico ed in parte dallo scarto della lavorazione nello stabilimento. L'adesione alla RSPO garantisce all'azienda la conformità alle richieste dell'organizzazione per la commercializzazione e la vendita di materie prime certificate RSPO, migliorando l'immagine di Unigrà all'interno del suo mercato di riferimento. Questo tipo di certificazione risulta importante per le organizzazioni perché può essere considerato un mezzo per ridurre l'impatto negativo nei confronti dell'ambiente, limitando deforestazione e cambiamenti di uso del suolo, oltre che consentire una valutazione globale, anche in termini di sostenibilità sociale. Unigrà ha visto nella redazione del bilancio di sostenibilità uno strumento fondamentale per la valutazione della sostenibilità a tutto tondo della propria organizzazione, perché viene data uguale rilevanza alle tre sfere della sostenibilità; la validazione esterna di questo documento ha solo lo scopo di controllare che le informazioni inserite siano veritiere e corrette secondo le linee guida del GRI, tuttavia non da giudizi sulle prestazioni assolute di una organizzazione. Il giudizio che viene dato sulle prestazioni delle organizzazioni e di tipo qualitativo ma non quantitativo. Ogni organizzazione può decidere di inserire o meno parte degli indicatori per una descrizione più accurata e puntuale. Unigrà acquisterà olio di palma certificato sostenibile secondo i principi previsti dalla Direttiva RED per l'alimentazione della centrale energetica, inoltre il 10 gennaio 2012 ha ottenuto la certificazione della sostenibilità della filiera secondo lo schema Bureau Veritas approvato dalla Comunità Europea. Il calcolo delle emissioni di tutte le fasi della filiera dell'olio di palma specifico per Unigrà è stato svolto tramite Biograce, uno strumento di calcolo finanziato dalla Comunità Europea che permette alle organizzazioni di misurare le emissioni della propria filiera in maniera semplificata ed adattabile alle specifiche situazioni. Dei fattori critici possono però influenzare il calcolo delle emissioni della filiera dell'olio di palma, tra questi i più rilevanti sono: cambiamento di uso del suolo diretto ed indiretto, perché possono provocare perdita di biodiversità, aumento delle emissioni di gas serra derivanti dai cambiamenti di riserve di carbonio nel suolo e nella biomassa vegetale, combustione delle foreste, malattie respiratorie, cambiamenti nelle caratteristiche dei terreni e conflitti sociali; presenza di un sistema di cattura di metano all'oleificio, perché gli effluenti della lavorazione non trattati potrebbero provocare problemi ambientali; cambiamento del rendimento del terreno, che può influenzare negativamente la resa delle piantagioni di palma da olio; sicurezza del cibo ed aspetti socio-economici, perché, sebbene non inseriti nel calcolo delle emissioni, potrebbero provocare conseguenze indesiderate per le popolazioni locali. Per una valutazione complessiva della filiera presa in esame, è necessario ottenere delle informazioni puntuali provenienti da paesi terzi dove però non sono di sempre facile reperibilità. Alla fine della valutazione delle emissioni, quello che emerge dal foglio di Biograce e un numero che, sebbene possa essere confrontato con delle soglie specifiche che descrivono dei criteri obbligatori di sostenibilità, non fornisce informazioni aggiuntive sulle caratteristiche della filiera considerata. È per questo motivo che accanto a valutazioni di questo tipo è necessario aderire a specifici criteri di sostenibilità aggiuntivi. Il calcolo delle emissioni dell'azienda Unigrà risulta vantaggioso in quasi tutti i casi, anche considerando i fattori critici; la certificazione della sostenibilità della filiera garantisce l'elevato livello di performance anche nei casi provvisti di maggiore incertezza. L'analisi del caso Unigrà ha reso evidente come l'azienda abbia intrapreso la strada della sostenibilità globale, che si traduce in azioni concrete. Gli strumenti di certificazione risultano quindi dei mezzi che consentono di garantire la sostenibilità della filiera dell'olio di palma e diventano parte integrante di programmi per la strategia europea di promozione della sostenibilità globale. L'utilizzo e l'implementazione di sistemi di certificazione della sostenibilità risulta per questo da favorire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Organic electronics has grown enormously during the last decades driven by the encouraging results and the potentiality of these materials for allowing innovative applications, such as flexible-large-area displays, low-cost printable circuits, plastic solar cells and lab-on-a-chip devices. Moreover, their possible field of applications reaches from medicine, biotechnology, process control and environmental monitoring to defense and security requirements. However, a large number of questions regarding the mechanism of device operation remain unanswered. Along the most significant is the charge carrier transport in organic semiconductors, which is not yet well understood. Other example is the correlation between the morphology and the electrical response. Even if it is recognized that growth mode plays a crucial role into the performance of devices, it has not been exhaustively investigated. The main goal of this thesis was the finding of a correlation between growth modes, electrical properties and morphology in organic thin-film transistors (OTFTs). In order to study the thickness dependence of electrical performance in organic ultra-thin-film transistors, we have designed and developed a home-built experimental setup for performing real-time electrical monitoring and post-growth in situ electrical characterization techniques. We have grown pentacene TFTs under high vacuum conditions, varying systematically the deposition rate at a fixed room temperature. The drain source current IDS and the gate source current IGS were monitored in real-time; while a complete post-growth in situ electrical characterization was carried out. At the end, an ex situ morphological investigation was performed by using the atomic force microscope (AFM). In this work, we present the correlation for pentacene TFTs between growth conditions, Debye length and morphology (through the correlation length parameter). We have demonstrated that there is a layered charge carriers distribution, which is strongly dependent of the growth mode (i.e. rate deposition for a fixed temperature), leading to a variation of the conduction channel from 2 to 7 monolayers (MLs). We conciliate earlier reported results that were apparently contradictory. Our results made evident the necessity of reconsidering the concept of Debye length in a layered low-dimensional device. Additionally, we introduce by the first time a breakthrough technique. This technique makes evident the percolation of the first MLs on pentacene TFTs by monitoring the IGS in real-time, correlating morphological phenomena with the device electrical response. The present thesis is organized in the following five chapters. Chapter 1 makes an introduction to the organic electronics, illustrating the operation principle of TFTs. Chapter 2 presents the organic growth from theoretical and experimental points of view. The second part of this chapter presents the electrical characterization of OTFTs and the typical performance of pentacene devices is shown. In addition, we introduce a correcting technique for the reconstruction of measurements hampered by leakage current. In chapter 3, we describe in details the design and operation of our innovative home-built experimental setup for performing real-time and in situ electrical measurements. Some preliminary results and the breakthrough technique for correlating morphological and electrical changes are presented. Chapter 4 meets the most important results obtained in real-time and in situ conditions, which correlate growth conditions, electrical properties and morphology of pentacene TFTs. In chapter 5 we describe applicative experiments where the electrical performance of pentacene TFTs has been investigated in ambient conditions, in contact to water or aqueous solutions and, finally, in the detection of DNA concentration as label-free sensor, within the biosensing framework.