244 resultados para Codice di difesa del consumatore
Resumo:
La mostra è diventata un nuovo paradigma della cultura contemporanea. Sostenuta da proprie regole e da una grammatica complessa produce storie e narrazioni. La presente ricerca di dottorato si struttura come un ragionamento critico sulle strategie del display contemporaneo, tentando di dimostrare, con strumenti investigativi eterogenei, assumendo fonti eclettiche e molteplici approcci disciplinari - dall'arte contemporanea, alla critica d'arte, la museologia, la sociologia, l'architettura e gli studi curatoriali - come il display sia un modello discorsivo di produzione culturale con cui il curatore si esprime. La storia delle esposizioni del XX secolo è piena di tentativi di cambiamento del rapporto tra lo sviluppo di pratiche artistiche e la sperimentazione di un nuovo concetto di mostra. Nei tardi anni Sessanta l’ingresso, nella scena dell’arte, dell’area del concettuale, demolisce, con un azzeramento radicale, tutte le convenzioni della rappresentazione artistica del dopoguerra, ‘teatralizzando’ il medium della mostra come strumento di potere e introducendo un nuovo “stile di presentazione” dei lavori, un display ‘dematerializzato” che rovescia le classiche relazioni tra opera, artista, spazio e istituzione, tra un curatore che sparisce (Siegelaub) e un curatore super-artista (Szeemann), nel superamento del concetto tradizionale di mostra stessa, in cui il lavoro del curatore, in quanto autore creativo, assumeva una propria autonomia strutturale all’interno del sistema dell’arte. Lo studio delle radici di questo cambiamento, ossia l’emergere di due tipi di autorialità: il curatore indipendente e l’artista che produce installazioni, tra il 1968 e il 1972 (le mostre di Siegelaub e Szeemann, la mimesi delle pratiche artistiche e curatoriali di Broodthaers e la tensione tra i due ruoli generata dalla Critica Istituzionale) permette di inquadrare teoricamente il fenomeno. Uno degli obbiettivi della ricerca è stato anche affrontare la letteratura critica attraverso una revisione/costruzione storiografica sul display e la storia delle teorie e pratiche curatoriali - formalizzata in modo non sistematico all'inizio degli anni Novanta, a partire da una rilettura retrospettiva della esperienze delle neoavanguardie – assumendo materiali e metodologie provenienti, come già dichiarato, da ambiti differenti, come richiedeva la composizione sfaccettata e non fissata dell’oggetto di studio, con un atteggiamento che si può definire comparato e post-disciplinare. Il primo capitolo affronta gli anni Sessanta, con la successione sistematica dei primi episodi sperimentali attraverso tre direzioni: l’emergere e l’affermarsi del curatore come autore, la proliferazione di mostre alternative che sovvertivano il formato tradizionale e le innovazioni prodotte dagli artisti organizzatori di mostre della Critica Istituzionale. Esponendo la smaterializzazione concettuale, Seth Siegelaub, gallerista, critico e impresario del concettuale, ha realizzato una serie di mostre innovative; Harald Szeemann crea la posizione indipendente di exhibition maker a partire When attitudes become forms fino al display anarchico di Documenta V; gli artisti organizzatori di mostre della Critica Istituzionale, soprattutto Marcel Broodhthears col suo Musée d’Art Moderne, Départment des Aigles, analizzano la struttura della logica espositiva come opera d’arte. Nel secondo capitolo l’indagine si sposta verso la scena attivista e alternativa americana degli anni Ottanta: Martha Rosler, le pratiche community-based di Group Material, Border Art Workshop/Taller de Arte Fronterizo, Guerrilla Girls, ACT UP, Art Workers' Coalition che, con proposte diverse elaborano un nuovo modello educativo e/o partecipativo di mostra, che diventa anche terreno del confronto sociale. La mostra era uno svincolo cruciale tra l’arte e le opere rese accessibili al pubblico, in particolare le narrazioni, le idee, le storie attivate, attraverso un originale ragionamento sulle implicazioni sociali del ruolo del curatore che suggeriva punti di vista alternativi usando un forum istituzionale. Ogni modalità di display stabiliva relazioni nuove tra artisti, istituzioni e audience generando abitudini e rituali diversi per guardare la mostra. Il potere assegnato all’esposizione, creava contesti e situazioni da agire, che rovesciavano i metodi e i formati culturali tradizionali. Per Group Material, così come nelle reading-room di Martha Rosler, la mostra temporanea era un medium con cui si ‘postulavano’ le strutture di rappresentazione e i modelli sociali attraverso cui, regole, situazioni e luoghi erano spesso sovvertiti. Si propongono come artisti che stanno ridefinendo il ruolo della curatela (significativamente scartano la parola ‘curatori’ e si propongono come ‘organizzatori’). La situazione cambia nel 1989 con la caduta del muro di Berlino. Oltre agli sconvolgimenti geopolitici, la fine della guerra fredda e dell’ideologia, l’apertura ai flussi e gli scambi conseguenti al crollo delle frontiere, i profondi e drammatici cambiamenti politici che coinvolgono l’Europa, corrispondono al parallelo mutamento degli scenari culturali e delle pratiche espositive. Nel terzo capitolo si parte dall’analisi del rapporto tra esposizioni e Late Capitalist Museum - secondo la definizione di Rosalind Krauss - con due mostre cruciali: Le Magiciens de la Terre, alle origini del dibattito postcoloniale e attraverso il soggetto ineffabile di un’esposizione: Les Immatériaux, entrambe al Pompidou. Proseguendo nell’analisi dell’ampio corpus di saggi, articoli, approfondimenti dedicati alle grandi manifestazioni internazionali, e allo studio dell’espansione globale delle Biennali, avviene un cambiamento cruciale a partire da Documenta X del 1997: l’inclusione di lavori di natura interdisciplinare e la persistente integrazione di elementi discorsivi (100 days/100 guests). Nella maggior parte degli interventi in materia di esposizioni su scala globale oggi, quello che viene implicitamente o esplicitamente messo in discussione è il limite del concetto e della forma tradizionale di mostra. La sfida delle pratiche contemporanee è non essere più conformi alle tre unità classiche della modernità: unità di tempo, di spazio e di narrazione. L’episodio più emblematico viene quindi indagato nel terzo capitolo: la Documenta X di Catherine David, il cui merito maggiore è stato quello di dichiarare la mostra come format ormai insufficiente a rappresentare le nuove istanze contemporanee. Le quali avrebbero richiesto - altrimenti - una pluralità di modelli, di spazi e di tempi eterogenei per poter divenire un dispositivo culturale all’altezza dei tempi. La David decostruisce lo spazio museale come luogo esclusivo dell’estetico: dalla mostra laboratorio alla mostra come archivio, l’evento si svolge nel museo ma anche nella città, con sottili interventi di dissimulazione urbana, nel catalogo e nella piattaforma dei 100 giorni di dibattito. Il quarto capitolo affronta l’ultima declinazione di questa sperimentazione espositiva: il fenomeno della proliferazione delle Biennali nei processi di globalizzazione culturale. Dalla prima mostra postcoloniale, la Documenta 11 di Okwui Enwezor e il modello delle Platforms trans-disciplinari, al dissolvimento dei ruoli in uno scenario post-szeemanniano con gli esperimenti curatoriali su larga scala di Sogni e conflitti, alla 50° Biennale di Venezia. Sono analizzati diversi modelli espositivi (la mostra-arcipelago di Edouard Glissant; il display in crescita di Zone of Urgency come estetizzazione del disordine metropolitano; il format relazionale e performativo di Utopia Station; il modello del bric à brac; la “Scuola” di Manifesta 6). Alcune Biennali sono state sorprendentemente autoriflessive e hanno consentito un coinvolgimento più analitico con questa particolare forma espressiva. Qual è l'impatto sulla storia e il dibattito dei sistemi espositivi? Conclusioni: Cos’è la mostra oggi? Uno spazio sotto controllo, uno spazio del conflitto e del dissenso, un modello educativo e/o partecipativo? Una piattaforma, un dispositivo, un archivio? Uno spazio di negoziazione col mercato o uno spazio di riflessione e trasformazione? L’arte del display: ipotesi critiche, prospettive e sviluppi recenti.
Resumo:
Nelle attuali organizzazioni sanitarie non è raro trovare operatori sanitari i quali ritengono che la relazione con il paziente consista nell'avere adeguate competenze tecniche inerenti la professione e nell'applicarle con attenzione e diligenza. Peraltro si tende ad invocare il “fattore umano”, ma si lamenta poi che l’operatore si rapporti col paziente in modo asettico e spersonalizzato. Da un punto di vista scientifico il termine “relazione” in psicologia si riferisce essenzialmente ai significati impliciti e quasi sempre non consapevoli veicolati da qualunque relazione: dipende pertanto dalla struttura psichica dei due interlocutori investendo in particolare la sfera dell’affettività e procede per processi comunicativi che travalicano il linguaggio verbale e con esso le intenzioni razionali e coscienti. La relazione interpersonale quindi rientra nel più ampio quadro dei processi di comunicazione: sono questi o meglio i relativi veicoli comunicazionali, che ci dicono della qualità delle relazioni e non viceversa e cioè che i processi comunicazionali vengano regolati in funzione della relazione che si vuole avere (Imbasciati, Margiotta, 2005). Molti studi in materia hanno dimostrato come, oltre alle competenze tecnicamente caratterizzanti la figura dell’infermiere, altre competenze, di natura squisitamente relazionale, giochino un ruolo fondamentale nel processo di ospedalizzazione e nella massimizzazione dell’aderenza al trattamento da parte del paziente, la cui non osservanza è spesso causa di fallimenti terapeutici e origine di aumentati costi sanitari e sociali. Questo aspetto è però spesso messo in discussione a favore di un maggiore accento sugli aspetti tecnico professionali. Da un “modello delle competenze” inteso tecnicisticamente prende origine infatti un protocollo di assistenza infermieristica basato sull’applicazione sistematica del problem solving method: un protocollo preciso (diagnosi e pianificazione) guida l’interazione professionale fra infermiere e la persona assistita. A lato di questa procedura il processo di assistenza infermieristica riconosce però anche un versante relazionale, spesso a torto detto umanistico riferendosi alla soggettività dei protagonisti interagenti: il professionista e il beneficiario dell’assistenza intesi nella loro globalità bio-fisiologica, psicologica e socio culturale. Nel pensiero infermieristico il significato della parola relazione viene però in genere tradotto come corrispondenza continua infermiere-paziente, basata sulle dimensioni personali del bisogno di assistenza infermieristica e caratterizzata da un modo di procedere dialogico e personalizzato centrato però sugli aspetti assistenziali, in cui dall’incontro degli interlocutori si determinerebbe la natura delle cure da fornire ed i mezzi con cui metterle in opera (Colliere, 1992; Motta, 2000). Nell’orientamento infermieristico viene affermata dunque la presenza di una relazione. Ma di che relazione si tratta? Quali sono le capacità necessarie per avere una buona relazione? E cosa si intende per “bisogni personali”? Innanzitutto occorre stabilire cosa sia la buona relazione. La buona o cattiva relazione è il prodotto della modalità con cui l’operatore entra comunque in interazione con il proprio paziente ed è modulata essenzialmente dalle capacità che la sua struttura, consapevole o no, mette in campo. DISEGNO DELLA LA RICERCA – 1° STUDIO Obiettivo del primo studio della presente ricerca, è un’osservazione delle capacità relazionali rilevabili nel rapporto infermiere/paziente, rapporto che si presume essere un caring. Si è voluto fissare l’attenzione principalmente su quelle dimensioni che possono costituire le capacità relazionali dell’infermiere. Questo basandoci anche su un confronto con le aspettative di relazione del paziente e cercando di esplorare quali collegamenti vi siano tra le une e le altre. La relazione e soprattutto la buona relazione non la si può stabilire con la buona volontà, né con la cosiddetta sensibilità umana, ma necessita di capacità che non tutti hanno e che per essere acquisite necessitano di un tipo di formazione che incida sulle strutture profonde della personalità. E’ possibile ipotizzare che la personalità e le sue dimensioni siano il contenitore e gli elementi di base sui quali fare crescere e sviluppare capacità relazionali mature. Le dimensioni di personalità risultano quindi lo snodo principale da cui la ricerca può produrre i suoi risultati e da cui si è orientata per individuare gli strumenti di misura. La motivazione della nostra scelta dello strumento è da ricercare quindi nel tentativo di esplorare l’incidenza delle dimensioni e sottodimensioni di personalità. Tra queste si è ritenuto importante il costrutto dell’Alessitimia, caratteristico nel possesso e quindi nell’utilizzo, più o meno adeguato, di capacità relazionali nel processo di caring,
Resumo:
Il presente lavoro si occupa dell’analisi numerica di combustione di gas a basso potere calorifico (gas di sintesi derivanti da pirolisi di biomasse). L’analisi è stata condotta su due principali geometrie di camera di combustione. La prima è un bruciatore sperimentale da laboratorio adatto allo studio delle proprietà di combustione del singas. Esso è introdotto in camera separatamente rispetto ad una corrente d’aria comburente al fine di realizzare una combustione non-premiscelata diffusiva in presenza di swirl. La seconda geometria presa in considerazione è la camera di combustione anulare installata sulla microturbina a gas Elliott TA 80 per la quale si dispone di un modello installato al banco al fine dell’esecuzione di prove sperimentali. I principali obbiettivi conseguiti nello studio sono stati la determinazione numerica del campo di moto a freddo su entrambe le geometrie per poi realizzare simulazioni in combustione mediante l’utilizzo di diversi modelli di combustione. In particolare è stato approfondito lo studio dei modelli steady laminar flamelet ed unsteady flamelet con cui sono state esaminate le distribuzioni di temperatura e delle grandezze tipiche di combustione in camera, confrontando i risultati numerici ottenuti con altri modelli di combustione (Eddy Dissipation ed ED-FR) e con i dati sperimentali a disposizione. Di importanza fondamentale è stata l’analisi delle emissioni inquinanti, realizzata per entrambe le geometrie, che mostra l’entità di tali emissioni e la loro tipologia. Relativamente a questo punto, il maggior interesse si sposta sui risultati ottenuti numericamente nel caso della microturbina, per la quale sono a disposizione misure di emissione ottenute sperimentalmente. Sempre per questa geometria è stato inoltre eseguito il confronto fra microturbina alimentata con singas a confronto con le prestazioni emissive ottenute con il gas naturale. Nel corso dei tre anni, l’esecuzione delle simulazioni e l’analisi critica dei risultati ha suggerito alcuni limiti e semplificazioni eseguite sulle griglie di calcolo realizzate per lo studio numerico. Al fine di eliminare o limitare le semplificazioni o le inesattezze, le geometrie dei combustori e le griglie di calcolo sono state migliorate ed ottimizzate. In merito alle simulazioni realizzate sulla geometria del combustore della microturbina Elliott TA 80 è stata condotta dapprima l’analisi numerica di combustione a pieno carico per poi analizzare le prestazioni ai carichi parziali. Il tutto appoggiandosi a tecniche di simulazione RANS ed ipotizzando alimentazioni a gas naturale e singas derivato da biomasse. Nell’ultimo anno di dottorato è stato dedicato tempo all’approfondimento e allo studio della tecnica Large Eddy Simulation per testarne una applicazione alla geometria del bruciatore sperimentale di laboratorio. In tale simulazione è stato implementato l’SGS model di Smagorinsky-Lilly completo di combustione con modelli flamelet. Dai risultati sono stati estrapolati i profili di temperatura a confronto con i risultati sperimentali e con i risultati RANS. Il tutto in diverse simulazioni a diverso valore del time-step imposto. L’analisi LES, per quanto migliorabile, ha fornito risultati sufficientemente precisi lasciando per il futuro la possibilità di approfondire nuovi modelli adatti all’applicazione diretta sulla MTG.
Resumo:
In ambito oncologico il dolore affligge la maggior parte dei pazienti (incidenza riportata dal 53 al 90%), in tutte le fasi della malattia: nonostante l’esistenza di Linee Guida (OMS), l’attuale “undertreatment” del sintomo dolore oncologico, legato a un inappropriato uso degli oppioidi, in Italia raggiunge stime fino al 40% dei casi. Segnalazioni recenti sul consumo degli oppioidi in Italia riportano un aumento imputabile a un solo farmaco (fentanil TTS), il che suggerisce un comportamento prescrittivo inappropriato. Letteratura in merito alle valutazioni di efficacia delle terapie di controllo del dolore sia in fase iniziale – quando la terapia medica oncologica è attiva- sia in fase avanzata di malattia – quando il controllo del dolore si configura come una delle principali terapie di supporto- è ormai disponibile , con un buon livello di affidabilità. Quello che è necessario è aumentare la capacità del Servizio Sanitario di trasferire nella pratica clinica e assistenziale i risultati della ricerca sulla efficacia delle cure. Questi i quesiti ai quali la ricerca ha inteso rispondere: a. Le competenze globalmente espresse dal servizio sanitario dell’Emilia Romagna sono adeguate per consentire un tempestivo, globale, appropriato ed efficace controllo del dolore oncologico, in tutte le fasi della malattia e lungo tutto il percorso di assistenza si a domiciliare che ospedaliero, per tutti i malati che ne hanno bisogno? b. Quali raccomandazioni possiamo fornire, basate sulle evidenze di efficacia, a clinici e gestori per migliorare l’identificazione del bisogno, la scelta del trattamento, il suo monitoraggio, la possibilità di garantirne l’accesso e la disponibilità non solo in ospedale ma anche a domicilio? c. Quale efficacia hanno dimostrato i percorsi di formazione relativi al riconoscimento e al controllo del dolore messi in atto finora? d. Quali percorsi possono essere raccomandati per mettere a disposizione dei cittadini le conoscenze scientifiche sul controllo del dolore oncologico?
Resumo:
La ricerca mira ad indagare l’origine della Scuola ingegneristica bolognese ed il ruolo che essa ha avuto durante i suoi primi 50 anni di attività nella diffusione del calcestruzzo armato in Italia, ed in particolare nella città di Bologna, sia dal punto di vista teorico che architettonico. Il processo di sviluppo del cemento armato è stato indagato secondo i percorsi tipici della scienza e della tecnica: teoria e pratica appaiono nel periodo di sperimentazione del materiale assai lontane; soltanto grazie alla comprensione delle sue potenzialità costruttive e del modo di sfruttarle al meglio, esse iniziano a convergere. L’interesse specifico per la Scuola bolognese va quindi a collocarsi all’interno di un panorama assai più ampio, con l’obiettivo di comprendere se, e fino a quando, le due discipline proseguono lungo strade parallele o se, al contrario, esse godono di reciproche influenze.
Resumo:
Il rapido progresso della tecnologia, lo sviluppo di prodotti altamente sofisticati, la forte competizione globale e l’aumento delle aspettative dei clienti hanno messo nuove pressioni sui produttori per garantire la commercializzazione di beni caratterizzati da una qualità sempre crescente. Sono gli stessi clienti che da anni si aspettano di trovare sul mercato prodotti contraddistinti da un livello estremo di affidabilità e sicurezza. Tutti siamo consapevoli della necessità per un prodotto di essere quanto più sicuro ed affidabile possibile; ma, nonostante siano passati oramai 30 anni di studi e ricerche, quando cerchiamo di quantificare ingegneristicamente queste caratteristiche riconducibili genericamente al termine qualità, oppure quando vogliamo provare a calcolare i benefici concreti che l’attenzione a questi fattori quali affidabilità e sicurezza producono su un business, allora le discordanze restano forti. E le discordanze restano evidenti anche quando si tratta di definire quali siano gli “strumenti più idonei” da utilizzare per migliorare l’affidabilità e la sicurezza di un prodotto o processo. Sebbene lo stato dell’arte internazionale proponga un numero significativo di metodologie per il miglioramento della qualità, tutte in continuo perfezionamento, tuttavia molti di questi strumenti della “Total Quality” non sono concretamente applicabili nella maggior parte delle realtà industriale da noi incontrate. La non applicabilità di queste tecniche non riguarda solo la dimensione più limitata delle aziende italiane rispetto a quelle americane e giapponesi dove sono nati e stati sviluppati questi strumenti, oppure alla poca possibilità di effettuare investimenti massicci in R&D, ma è collegata anche alla difficoltà che una azienda italiana avrebbe di sfruttare opportunamente i risultati sui propri territori e propri mercati. Questo lavoro si propone di sviluppare una metodologia semplice e organica per stimare i livelli di affidabilità e di sicurezza raggiunti dai sistemi produttivi e dai prodotti industriali. Si pone inoltre di andare al di là del semplice sviluppo di una metodologia teorica, per quanto rigorosa e completa, ma di applicare in forma integrata alcuni dei suoi strumenti a casi concreti di elevata valenza industriale. Questa metodologia come anche, più in generale, tutti gli strumenti di miglioramento di affidabilità qui presentati, interessano potenzialmente una vasta gamma di campi produttivi, ma si prestano con particolare efficacia in quei settori dove coesistono elevate produzioni e fortissime esigenze qualitative dei prodotti. Di conseguenza, per la validazione ed applicazione ci si è rivolti al settore dell’automotive, che da sempre risulta particolarmente sensibile ai problemi di miglioramento di affidabilità e sicurezza. Questa scelta ha portato a conclusioni la cui validità va al di là di valori puramente tecnici, per toccare aspetti non secondari di “spendibilità” sul mercato dei risultati ed ha investito aziende di primissimo piano sul panorama industriale italiano.
Resumo:
Le infezioni post trapianto sono una complicanza frequente, tra queste l'infezione da Polyomavirus rappresenta una patologia molto frequente e causa di perdita del graft. Sono stati studiati 70 pazienti portatori di trapianto renale per valutare l'incidenza dell'infezione e la sua prognosi e la risposta alla terapia
Resumo:
NGAL è considerato dalla comunità scientifica un marcatore di danno renale sia di tipo ischemico che tossico. In questo studio è stato effettuato un follow-up ad un mese di una popolazione sottoposta a trapianto di rene, sono state analizzate la fase post-operatoria e l’immediato periodo di stabilizzazione del trapianto. E' stato osservato l’andamento di NGAL in relazione alle principali variabili incidenti.
Resumo:
Il lavoro eseguito comprende 3 differenti studi inerenti l’approfondimento di diversi aspetti della fisiopatologia della prostata, in particolare l’aspetto clinico, biochimico ed ormonale. Per quanto riguarda l’aspetto clinico è stato eseguito uno studio ecografico sull’accrescimento e sviluppo della ghiandola, a partire dai 4 giorni di vita all’anno di età del cane. L’aspetto biochimico dell’organo è stato indagato nel secondo studio, analizzando l’eventuali differenze nel profilo proteico e nel profilo dello zinco, valutato con spettrofotometria ad assorbimento atomico, su campioni di plasma seminale di cani sani o cani affetti da iperplasia prostatica benigna sintomatica od asintomatica. Lo studio è stato eseguito allo scopo di valutare se l’approccio biochimico ai problemi prostatici possa essere d’aiuto nella diagnosi della più comune patologia della prostata, l’iperplasia prostatica benigna. Il terzo studio inerente l’aspetto ormonale della prostata, completa lo studio precedente, analizzando le eventuali differenze ormonali (Testosterone, Estrogeni e Progesterone) riscontrabili fra due gruppi di cani: i cani sani e quelli affetti da iperplasia prostatica benigna.
Resumo:
La tesi, che si articola in tre capitoli, analizza la rilevanza della professionalità del lavoratore nell’ambito del rapporto di lavoro subordinato con particolare riferimento all’interesse mostrato da parte della contrattazione collettiva nel settore privato e pubblico nella definizione dei sistemi classificatori e di inquadramento del personale. Nel primo capitolo, si dà conto dei fattori che hanno determinato l’emersione della professionalità quale bene giuridico meritevole di tutela da parte dell’ordinamento: si analizzano in particolare le trasformazioni organizzative e produttive, nonché le indicazioni provenienti dal testo costituzionale che si riverberano di poi nella legislazione ordinaria. Nel secondo si analizza quanto la professionalità, o le singole voci che la compongono, rilevi a fini classificatori: dunque in che termini le competenze, le conoscenze del lavoratore rilevino quali criteri classificatori. Nel terzo capitolo, viceversa, si pone maggiore attenzione rispetto all’ “importanza” della professionalità quale fattore che incide su meccanismi di progressione retributiva e in genere professionale (assumendosi tale espressione come una sorta di sinonimo del termine carriera, rispetto al quale si differenzia quanto al contesto organizzativo e produttivo in cui si svolge) del lavoratore. In un assetto simile, centrale è il rilievo della valutazione del lavoratore. I contratti collettivi analizzati sono per il settore privato quelli delle categorie chimici, terziario e tessile; per il settore pubblico, quelli del comparto sanità e regioni ed autonomie locali.
Resumo:
L’evoluzione dei sensori multispettrali e la prospettiva di sviluppo dei sensori iperspettrali nel campo del telerilevamento ottico offrono nuovi strumenti per l’indagine del territorio e rinnovano la necessità di ridefinire potenzialità, limiti e accuratezza delle metodologie tradizionali. Nel caso delle immagini iperspettrali, in particolare, l’elevatissima risoluzione spettrale apre nuove possibilità di sviluppo di modelli fisicamente basati per correlare grandezze radiometriche con indicatori fisico-chimici caratteristici delle superfici osservate, a prezzo però di maggiori oneri nella gestione del dato. Il presente lavoro mira appunto ad esaminare, per alcune applicazioni di carattere ambientale e attraverso casi di studio specifici, le criticità del problema del rilevamento da remoto nel suo complesso: dai problemi di correzione radiometrica delle immagini, all'acquisizione di dati di calibrazione sul campo, infine all'estrazione delle informazioni di interesse dal dato telerilevato. A tal fine sono stati sperimentati diversi modelli di trasferimento radiativo ed è stata sviluppata un’interfaccia per la gestione del modello 6SV. Per quest’ultimo sono state inoltre sviluppate routine specifiche per il supporto dei sensori Hyperion e World View 2. La ricerca svolta intende quindi offrire un contributo alla definizione di procedure operative ripetibili, per alcune applicazioni intimamente connesse all’indagine conoscitiva ed al monitoraggio dei processi in atto sul territorio. Nello specifico, si è scelto il caso di studio dell’oasi del Fayyum, in Egitto, per valutare il contenuto informativo delle immagini satellitari sotto tre diversi profili, soltanto in apparenza distinti: la classificazione della litologia superficiale, la valutazione dello stato di qualità delle acque ed il monitoraggio delle opere di bonifica. Trattandosi di un’oasi, le aree coltivate del Fayyum sono circondate dai suoli aridi del deserto libico. La mancanza di copertura vegetale rappresenta una condizione privilegiata per l’osservazione della litologia superficiale da remoto, auspicabile anche per la scarsa accessibilità di alcune aree. Il fabbisogno idrico dell’oasi è garantito dall’apporto di acque del fiume Nilo attraverso una rete di irrigazione che ha, come recettore finale, il lago Qarun, situato nella porzione più depressa dell’oasi. Questo lago, privo di emissari, soffre enormi problemi di salinizzazione, visto il clima iper-arido in cui si trova, e di inquinamento da fertilizzanti agricoli. Il problema della sostenibilità ambientale dello sfruttamento agricolo intensivo dell’oasi è un problema di deterioramento della qualità dell’acqua e della qualità dei suoli. È un problema che richiede una adeguata conoscenza del contesto geologico in cui questi terreni sono inseriti ed una capacità di monitoraggio degli interventi di bonifica ed estensione delle coltivazioni in atto; entrambe conoscenze necessarie alla definizione di un piano di sviluppo economico sostenibile. Con l’intento di contribuire ad una valutazione delle effettive potenzialità del telerilevamento come strumento di informazione territoriale, sono state sperimentate tecniche di classificazione di immagini multispettrali ASTER ed iperspettrali Hyperion di archivio per discriminare la litologia superficiale sulle aree adiacenti al lago Qarun nell’oasi del Fayyum. Le stesse immagini Hyperion di archivio più altre appositamente acquisite sono state utilizzate, assieme ad immagini multispettrali ALI, per la valutazione qualitativa e quantitativa di parametri di qualità delle acque, attraverso l’applicazione di modelli empirici di correlazione. Infine, per valutare l’ipotesi che il deterioramento della qualità delle acque possa essere correlato ai processi di bonifica ed estensione delle coltivazioni in atto negli ultimi decenni, le immagini dell’archivio Landsat sono state utilizzate per analisi di change detection. Per quanto riguarda il problema della validazione dei risultati, si è fatto uso di alcuni dati di verità a terra acquisiti nel corso di un survey preliminare effettuato nell’Ottobre 2010. I campioni di roccia prelevati e le misure di conducibilità elettrica delle acque del lago, benché in numero estremamente limitato per la brevità della missione e le ovvie difficoltà logistiche, consentono alcune valutazioni preliminari sui prodotti ottenuti dalle elaborazioni. Sui campioni di roccia e sabbie sciolte, in particolare, sono state effettuate misure di riflettività in laboratorio ed analisi mineralogiche dettagliate. Per la valutazione della qualità delle acque, più precisamente delle concentrazioni di clorofilla, la metodologia utilizzata per il caso di studio egiziano è stata applicata anche sul tratto costiero adriatico antistante le foci dei fiumi Tronto e Salinello. In questo sito sono state effettuate misure in situ di conducibilità elettrica ed il prelievo di campioni di acqua per la determinazione in laboratorio delle concentrazioni di clorofilla. I risultati ottenuti hanno evidenziato le potenzialità offerte dall’informazione spettrale contenuta nelle immagini satellitari e consentono l’individuazione di alcune pratiche operative. D’altro canto hanno anche messo in luce le carenze dei modelli attualmente esistenti, nonché le criticità legate alla correzione atmosferica delle grandezze radiometriche rilevate.
Resumo:
Oggetto dell’elaborato è il vaglio di ammissibilità dei ricorsi in materia civile avanti alla Corte di cassazione francese. Il primo dei tre capitoli ha ad oggetto alcuni aspetti storici ed ordinamentali ritenuti essenziali per una migliore comprensione del giudizio civile di cassation: dalle origini storiche della Corte di cassazione, alle funzioni attualmente attribuite alla Cour de cassation, sino alla presentazione dei membri che la compongono e delle differenti formazioni, non solo giudicanti, nelle quali può riunirsi; in tale capitolo trova, altresì, spazio una rassegna delle riforme che si sono susseguite negli ultimi decenni, volte, in maniera più o meno diretta, a contrastare il sovraccarico di ricorsi che affliggeva la S.C. francese ed a rafforzarne la funzione nomofilattica. Il secondo capitolo è interamente dedicato all’analisi della disciplina del processo civile avanti alla Cour de cassation. Dopo aver affrontato la questione della classificazione del mezzo di impugnazione, vengono illustrati i caratteri tradizionalmente attribuiti al pourvoi en cassation (assenza di effetto devolutivo e di effetto sospensivo), nonché la c.d. ouverture del ricorso, ossia le condizioni di ammissibilità dello stesso; sono, infine, descritti le fasi in cui si svolge il giudizio e l’esito del procedimento. L’attenzione si rivolge, nel terzo capitolo, a quel peculiare momento del giudizio rappresentato dal vaglio preliminare di ammissibilità del ricorso. Dopo un breve excursus storico, la tesi si sofferma sulla disciplina odierna, trattando, in particolare, i criteri offerti alle formazioni ridotte per la valutazione di ammissibilità del pourvoi; le peculiarità del procedimento volto alla dichiarazione di non-admission del ricorso; la natura, il contenuto e gli effetti della decisione della formation restreinte. Particolare attenzione è prestata, in tale capitolo, alle prassi applicative che integrano la scarna disciplina dell’istituto ed alla compatibilità del vaglio preliminare con la Convenzione Europea dei Diritti dell’Uomo.
Resumo:
La ricerca ha per oggetto la messa a punto e applicazione di un approccio metaprogettuale finalizzato alla definizione di criteri di qualità architettonica e paesaggistica nella progettazione di aziende vitivinicole medio-piccole, che effettuano la trasformazione della materia prima, prevalentemente di propria produzione. L’analisi della filiera vitivinicola, della letteratura scientifica, della normativa di settore, di esempi di “architetture del vino eccellenti” hanno esplicitato come prevalentemente vengano indagate cantine industriali ed aspetti connessi con l'innovazione tecnologica delle attrezzature. Soluzioni costruttive e tecnologiche finalizzate alla qualità architettonica ed ambientale, attuali dinamiche riguardanti il turismo enogastronomico, nuove funzionalità aziendali, problematiche legate alla sostenibilità dell’intervento risultano ancora poco esplorate, specialmente con riferimento a piccole e medie aziende vitivinicole. Assunto a riferimento il territorio ed il sistema costruito del Nuovo Circondario Imolese (areale rappresentativo per vocazione ed espressione produttiva del comparto vitivinicolo emiliano-romagnolo) è stato identificato un campione di aziende con produzioni annue non superiori ai 5000 hl. Le analisi svolte sul campione hanno permesso di determinare: modalità di aggregazione funzionale degli spazi costruiti, relazioni esistenti con il paesaggio, aspetti distributivi e materico-costruttivi, dimensioni di massima dei locali funzionali alla produzione. Il caso studio relativo alla riqualificazione di un’azienda rappresentativa del comparto è stato utilizzato per la messa a punto e sperimentazione di criteri di progettazione guidati da valutazioni relative alle prestazioni energetiche, alla qualità architettonica e alla sostenibilità ambientale, economica e paesaggistica. L'analisi costi-benefici (pur non considerando le ricadute positive in termini di benessere degli occupanti ed il guadagno della collettività in termini di danni collegati all’inquinamento che vengono evitati in architetture progettate per garantire qualità ambientale interna ed efficienza energetica) ha esplicitato il ritorno in pochi anni dell’investimento proposto, nonostante gli ancora elevati costi di materiali di qualità e dei componenti per il corretto controllo climatico delle costruzioni.
Resumo:
Il presente elaborato ha per oggetto la tematica del Sé, in particolar modo il Sé corporeo. Il primo capitolo illustrerà la cornice teorica degli studi sul riconoscimento del Sé corporeo, affrontando come avviene l’elaborazione del proprio corpo e del proprio volto rispetto alle parti corporee delle altre persone. Il secondo capitolo descriverà uno studio su soggetti sani che indaga l’eccitabilità della corteccia motoria nei processi di riconoscimento sé/altro. I risultati mostrano un incremento dell’eccitabilità corticospinale dell’emisfero destro in seguito alla presentazione di stimoli propri (mano e cellulare), a 600 e 900 ms dopo la presentazione dello stimolo, fornendo informazioni sulla specializzazione emisferica substrati neurali e sulla temporalità dei processi che sottendono all’elaborazione del sé. Il terzo capitolo indagherà il contributo del movimento nel riconoscimento del Sé corporeo in soggetti sani ed in pazienti con lesione cerebrale destra. Le evidenze mostrano come i pazienti, che avevano perso la facilitazione nell’elaborare le parti del proprio corpo statiche, presentano tale facilitazione in seguito alla presentazione di parti del proprio corpo in movimento. Il quarto capitolo si occuperà dello sviluppo del sé corporeo in bambini con sviluppo atipico, affetti da autismo, con riferimento al riconoscimento di posture emotive proprie ed altrui. Questo studio mostra come alcuni processi legati al sé possono essere preservati anche in bambini affetti da autismo. Inoltre i dati mostrano che il riconoscimento del sé corporeo è modulato dalle emozioni espresse dalle posture corporee sia in bambini con sviluppo tipico che in bambini affetti da autismo. Il quinto capitolo sarà dedicato al ruolo dei gesti nel riconoscimento del corpo proprio ed altrui. I dati di questo studio evidenziano come il contenuto comunicativo dei gesti possa facilitare l’elaborazione di parti del corpo altrui. Nella discussione generale i risultati dei diversi studi verranno considerati all’interno della loro cornice teorica.
Resumo:
La realizzazione di questa ricerca ha come obiettivo principe lo studio approfondito dell’istituto della riabilitazione penale all’interno del panorama legislativo italiano, con riferimento al contesto bolognese, e nella legislazione belga; inoltre si pone come scopo l’analisi dell’interazione autore-vittima del reato, con una particolare attenzione al risarcimento elargito alla persona offesa dal reato e alla figura della vittima prima nel sistema penale, poi nel procedimento specifico che porta alla riabilitazione del condannato. Il punto di partenza del lavoro di ricerca intrapreso è costituito da un’accurata ricerca bibliografica inerente agli argomenti trattati, al fine di poter approfondire una buona parte della letteratura italiana e belga esistente in materia. La fase successiva della ricerca è stata quella di reperire informazioni riguardanti l’ambito di studio da approfondire, cioè la riabilitazione, secondo una direttrice empirica. Pertanto, per quanto concerne la realtà italiana, sono stati analizzati, tramite una griglia di rilevazione costruita ad hoc, i fascicoli processuali relativi alla riabilitazione presenti negli archivi del Tribunale di Sorveglianza di Bologna (2004-2009); la situazione belga è invece stata studiata reperendo dati, riferiti alla réhabilitation pénal, rintracciati presso il “Service Public Fédéral Justice - Bureau Permanent Statistiques et Mesure de la charge de travail (BPSM)” (2008-2009), sia livello nazionale che delle cinque Corti di appello. Inoltre, al fine di ottenere un ulteriore punto di vista empirico riguardante l’istituto della riabilitazione penale, sono state effettuate delle interviste semi-strutturate al Presidente del Tribunale di Sorveglianza Dott. Francesco Maisto e al Sostituto Procuratore Generale di Liège Mr. Nicolas Banneux. Infatti l’esperienza lavorativa e il particolare ruolo ricoperto da questi “osservatori privilegiati”, competenti di riabilitazione e particolarmente sensibili alle tematiche criminologiche e vittimologiche, li pone direttamente in contatto con l’istituto e la procedura della riabilitazione, determinando in loro una profonda padronanza dell’oggetto di ricerca.