310 resultados para Aria compressa compressori controllo pressione serbatoio accumulo risparmio energetico motori elettrici freni innesto blocchetto volume nocivo pressostato riavviamento Simulink Matlab
Resumo:
Many energetic and environmental evaluations need appropriate meteorological data, as input to analysis and prevision softwares. In Italy there aren't adeguate meteorological data because, in many cases, they are incomplete, incorrect and also very expensive for a long-term analysis (that needs multi-year data sets). A possible solution to this problem is the use of a Typical Meteorological Year (TRY), generated for specific applications. Nowadays the TRYs have been created, using statistical criteria, just for the analysis of solar energy systems and for predicting the thermal performance of buildings, applying it also to the study of photovoltaic plants (PV), though not specifically created for this type of application. The present research has defined the methodology for the creation of TRYs for different applications. In particular TRYs for environmental and wind plant analysis have been created. This is the innovative aspect of this research, never explored before. In additions, the methodology of the generation for the PV TRYs has been improved. The results are very good and the TRYs generated for these applications are adeguate to characterize the climatic condition of the place over a long period and can be used for energetic and environmental studies.
Resumo:
Descrizione, tema e obiettivi della ricerca La ricerca si propone lo studio delle possibili influenze che la teoria di Aldo Rossi ha avuto sulla pratica progettuale nella Penisola Iberica, intende quindi affrontare i caratteri fondamentali della teoria che sta alla base di un metodo progettuale ed in particolar modo porre l'attenzione alle nuove costruzioni quando queste si confrontano con le città storiche. Ha come oggetto principale lo studio dei documenti, saggi e scritti riguardanti il tema della costruzione all'interno delle città storiche. Dallo studio di testi selezionati di Aldo Rossi sulla città si vuole concentrare l'attenzione sull'influenza che tale teoria ha avuto nei progetti della Penisola Iberica, studiare come è stata recepita e trasmessa successivamente, attraverso gli scritti di autori spagnoli e come ha visto un suo concretizzarsi poi nei progetti di nuove costruzioni all'interno delle città storiche. Si intende restringere il campo su un periodo ed un luogo precisi, Spagna e Portogallo a partire dagli anni Settanta, tramite la lettura di un importante evento che ha ufficializzato il contatto dell'architetto italiano con la Penisola Iberica, quale il Seminario di Santiago de Compostela tenutosi nel 1976. Al Seminario parteciparono numerosi architetti che si confrontarono su di un progetto per la città di Santiago e furono invitati personaggi di fama internazionale a tenere lezioni introduttive sul tema di dibattito in merito al progetto e alla città storica. Il Seminario di Santiago si colloca in un periodo storico cruciale per la Penisola Iberica, nel 1974 cade il regime salazarista in Portogallo e nel 1975 cade il regime franchista in Spagna ed è quindi di rilevante importanza capire il legame tra l'architettura e la nuova situazione politica. Dallo studio degli interventi, dei progetti che furono prodotti durante il Seminario, della relazione tra questo evento ed il periodo storico in cui esso va contestualizzato, si intende giungere alla individuazione delle tracce della reale presenza di tale eredità. Presupposti metodologici. Percorso e strumenti di ricerca La ricerca può quindi essere articolata in distinte fasi corrispondenti per lo più ai capitoli in cui si articola la tesi: una prima fase con carattere prevalentemente storica, di ricerca del materiale per poter definire il contesto in cui si sviluppano poi le vicende oggetto della tesi; una seconda fase di impronta teorica, ossia di ricerca bibliografica del materiale e delle testimonianze che provvedono alla definizione della reale presenza di effetti scaturiti dai contatti tra Rossi e la Penisola Iberica, per andare a costruire una eredità ; una terza fase che entra nel merito della composizione attraverso lo studio e la verifica delle prime due parti, tramite l'analisi grafica applicata ad uno specifico esempio architettonico selezionato; una quarta fase dove il punto di vista viene ribaltato e si indaga l'influenza dei luoghi visitati e dei contatti intrattenuti con alcuni personaggi della Penisola Iberica sull'architettura di Rossi, ricercandone i riferimenti. La ricerca è stata condotta attraverso lo studio di alcuni eventi selezionati nel corso degli anni che si sono mostrati significativi per l'indagine, per la risonanza che hanno avuto sulla storia dell'architettura della Penisola. A questo scopo si sono utilizzati principalmente tre strumenti: lo studio dei documenti, le pubblicazioni e le riviste prodotte in Spagna, gli scritti di Aldo Rossi in merito, e la testimonianza diretta attraverso interviste di personaggi chiave. La ricerca ha prodotto un testo suddiviso per capitoli che rispetta l'organizzazione in fasi di lavoro. A seguito di determinate condizioni storiche e politiche, studiate nella ricerca a supporto della tesi espressa, nella Penisola Iberica si è verificato il diffondersi della necessità e del desiderio di guardare e prendere a riferimento l'architettura europea e in particolar modo quella italiana. Il periodo sul quale viene focalizzata l'attenzione ha inizio negli anni Sessanta, gli ultimi prima della caduta delle dittature, scenario dei primi viaggi di Aldo Rossi nella Penisola Iberica. Questi primi contatti pongono le basi per intense e significative relazioni future. Attraverso l'approfondimento e la studio dei materiali relativi all'oggetto della tesi, si è cercato di mettere in luce il contesto culturale, l'attenzione e l'interesse per l'apertura di un dibattito intorno all'architettura, non solo a livello nazionale, ma europeo. Ciò ha evidenziato il desiderio di innescare un meccanismo di discussione e scambio di idee, facendo leva sull'importanza dello sviluppo e ricerca di una base teorica comune che rende coerente i lavori prodotti nel panorama architettonico iberico, seppur ottenendo risultati che si differenziano gli uni dagli altri. E' emerso un forte interesse per il discorso teorico sull'architettura, trasmissibile e comunicabile, che diventa punto di partenza per un metodo progettuale. Ciò ha reso palese una condivisione di intenti e l'assunzione della teoria di Aldo Rossi, acquisita, diffusa e discussa, attraverso la pubblicazione dei suoi saggi, la conoscenza diretta con l'architetto e la sua architettura, conferenze, seminari, come base teorica su cui fondare il proprio sapere architettonico ed il processo metodologico progettuale da applicare di volta in volta negli interventi concreti. Si è giunti così alla definizione di determinati eventi che hanno permesso di entrare nel profondo della questione e di sondare la relazione tra Rossi e la Penisola Iberica, il materiale fornito dallo studio di tali episodi, quali il I SIAC, la diffusione della rivista "2C. Construccion de la Ciudad", la Coleccion Arquitectura y Critica di Gustavo Gili, hanno poi dato impulso per il reperimento di una rete di ulteriori riferimenti. E' stato possibile quindi individuare un gruppo di architetti spagnoli, che si identificano come allievi del maestro Rossi, impegnato per altro in quegli anni nella formazione di una Scuola e di un insegnamento, che non viene recepito tanto nelle forme, piuttosto nei contenuti. I punti su cui si fondano le connessioni tra l'analisi urbana e il progetto architettonico si centrano attorno due temi di base che riprendono la teoria esposta da Rossi nel saggio L'architettura della città : - relazione tra l'area-studio e la città nella sua globalità, - relazione tra la tipologia edificatoria e gli aspetti morfologici. La ricerca presentata ha visto nelle sue successive fasi di approfondimento, come si è detto, lo sviluppo parallelo di più tematiche. Nell'affrontare ciascuna fase è stato necessario, di volta in volta, operare una verifica delle tappe percorse precedentemente, per mantenere costante il filo del discorso col lavoro svolto e ritrovare, durante lo svolgimento stesso della ricerca, gli elementi di connessione tra i diversi episodi analizzati. Tale operazione ha messo in luce talvolta nodi della ricerca rimasti in sospeso che richiedevano un ulteriore approfondimento o talvolta solo una rivisitazione per renderne possibile un più proficuo collegamento con la rete di informazioni accumulate. La ricerca ha percorso strade diverse che corrono parallele, per quanto riguarda il periodo preso in analisi: - i testi sulla storia dell'architettura spagnola e la situazione contestuale agli anni Settanta - il materiale riguardante il I SIAC - le interviste ai partecipanti al I SIAC - le traduzioni di Gustavo Gili nella Coleccion Arquitectura y Critica - la rivista "2C. Construccion de la Ciudad" Esse hanno portato alla luce una notevole quantità di tematiche, attraverso le quali, queste strade vengono ad intrecciarsi e a coincidere, verificando l'una la veridicità dell'altra e rafforzandone il valore delle affermazioni. Esposizione sintetica dei principali contenuti esposti dalla ricerca Andiamo ora a vedere brevemente i contenuti dei singoli capitoli. Nel primo capitolo Anni Settanta. Periodo di transizione per la Penisola Iberica si è cercato di dare un contesto storico agli eventi studiati successivamente, andando ad evidenziare gli elementi chiave che permettono di rintracciare la presenza della predisposizione ad un cambiamento culturale. La fase di passaggio da una condizione di chiusura rispetto alle contaminazioni provenienti dall'esterno, che caratterizza Spagna e Portogallo negli anni Sessanta, lascia il posto ad un graduale abbandono della situazione di isolamento venutasi a creare intorno al Paese a causa del regime dittatoriale, fino a giungere all'apertura e all'interesse nei confronti degli apporti culturali esterni. E' in questo contesto che si gettano le basi per la realizzazione del I Seminario Internazionale di Architettura Contemporanea a Santiago de Compostela, del 1976, diretto da Aldo Rossi e organizzato da César Portela e Salvador Tarragó, di cui tratta il capitolo secondo. Questo è uno degli eventi rintracciati nella storia delle relazioni tra Rossi e la Penisola Iberica, attraverso il quale è stato possibile constatare la presenza di uno scambio culturale e l'importazione in Spagna delle teorie di Aldo Rossi. Organizzato all'indomani della caduta del franchismo, ne conserva una reminescenza formale. Il capitolo è organizzato in tre parti, la prima si occupa della ricostruzione dei momenti salienti del Seminario Proyecto y ciudad historica, dagli interventi di architetti di fama internazionale, quali lo stesso Aldo Rossi, Carlo Aymonino, James Stirling, Oswald Mathias Ungers e molti altri, che si confrontano sul tema delle città storiche, alle giornate seminariali dedicate all’elaborazione di un progetto per cinque aree individuate all’interno di Santiago de Compostela e quindi dell’applicazione alla pratica progettuale dell’inscindibile base teorica esposta. Segue la seconda parte dello stesso capitolo riguardante La selezione di interviste ai partecipanti al Seminario. Esso contiene la raccolta dei colloqui avuti con alcuni dei personaggi che presero parte al Seminario e attraverso le loro parole si è cercato di approfondire la materia, in particolar modo andando ad evidenziare l’ambiente culturale in cui nacque l’idea del Seminario, il ruolo avuto nella diffusione della teoria di Aldo Rossi in Spagna e la ripercussione che ebbe nella pratica costruttiva. Le diverse interviste, seppur rivolte a persone che oggi vivono in contesti distanti e che in seguito a questa esperienza collettiva hanno intrapreso strade diverse, hanno fatto emergere aspetti comuni, tale unanimità ha dato ancor più importanza al valore di testimonianza offerta. L’elemento che risulta più evidente è il lascito teorico, di molto prevalente rispetto a quello progettuale che si è andato mescolando di volta in volta con la tradizione e l’esperienza dei cosiddetti allievi di Aldo Rossi. Negli stessi anni comincia a farsi strada l’importanza del confronto e del dibattito circa i temi architettonici e nel capitolo La fortuna critica della teoria di Aldo Rossi nella Penisola Iberica è stato affrontato proprio questo rinnovato interesse per la teoria che in quegli anni si stava diffondendo. Si è portato avanti lo studio delle pubblicazioni di Gustavo Gili nella Coleccion Arquitectura y Critica che, a partire dalla fine degli anni Sessanta, pubblica e traduce in lingua spagnola i più importanti saggi di architettura, tra i quali La arquitectura de la ciudad di Aldo Rossi, nel 1971, e Comlejidad y contradiccion en arquitectura di Robert Venturi nel 1972. Entrambi fondamentali per il modo di affrontare determinate tematiche di cui sempre più in quegli anni si stava interessando la cultura architettonica iberica, diventando così ¬ testi di riferimento anche nelle scuole. Le tracce dell’influenza di Rossi sulla Penisola Iberica si sono poi ricercate nella rivista “2C. Construccion de la Ciudad” individuata come strumento di espressione di una teoria condivisa. Con la nascita nel 1972 a Barcellona di questa rivista viene portato avanti l’impegno di promuovere la Tendenza, facendo riferimento all’opera e alle idee di Rossi ed altri architetti europei, mirando inoltre al recupero di un ruolo privilegiato dell’architettura catalana. A questo proposito sono emersi due fondamentali aspetti che hanno legittimato l’indagine e lo studio di questa fonte: - la diffusione della cultura architettonica, il controllo ideologico e di informazione operato dal lavoro compiuto dalla rivista; - la documentazione circa i criteri di scelta della redazione a proposito del materiale pubblicato. E’ infatti attraverso le pubblicazioni di “2C. Construccion de la Ciudad” che è stato possibile il ritrovamento delle notizie sulla mostra Arquitectura y razionalismo. Aldo Rossi + 21 arquitectos españoles, che accomuna in un’unica esposizione le opere del maestro e di ventuno giovani allievi che hanno recepito e condiviso la teoria espressa ne “L’architettura della città”. Tale mostra viene poi riproposta nella Sezione Internazionale di Architettura della XV Triennale di Milano, la quale dedica un Padiglione col titolo Barcelona, tres epocas tres propuestas. Dalla disamina dei progetti presentati è emerso un interessante caso di confronto tra le Viviendas para gitanos di César Portela e la Casa Bay di Borgo Ticino di Aldo Rossi, di cui si è occupato l’ultimo paragrafo di questo capitolo. Nel corso degli studi è poi emerso un interessante risvolto della ricerca che, capovolgendone l’oggetto stesso, ne ha approfondito gli aspetti cercando di scavare più in profondità nell’analisi della reciproca influenza tra la cultura iberica e Aldo Rossi, questa parte, sviscerata nell’ultimo capitolo, La Penisola Iberica nel “magazzino della memoria” di Aldo Rossi, ha preso il posto di quello che inizialmente doveva presentarsi come il risvolto progettuale della tesi. Era previsto infatti, al termine dello studio dell’influenza di Aldo Rossi sulla Penisola Iberica, un capitolo che concentrava l’attenzione sulla produzione progettuale. A seguito dell’emergere di un’influenza di carattere prettamente teorica, che ha sicuramente modificato la pratica dal punto di vista delle scelte architettoniche, senza però rendersi esplicita dal punto di vista formale, si è preferito, anche per la difficoltà di individuare un solo esempio rappresentativo di quanto espresso, sostituire quest’ultima parte con lo studio dell’altra faccia della medaglia, ossia l’importanza che a sua volta ha avuto la cultura iberica nella formazione della collezione dei riferimenti di Aldo Rossi. L’articolarsi della tesi in fasi distinte, strettamente connesse tra loro da un filo conduttore, ha reso necessari successivi aggiustamenti nel percorso intrapreso, dettati dall’emergere durante la ricerca di nuovi elementi di indagine. Si è pertanto resa esplicita la ricercata eredità di Aldo Rossi, configurandosi però prevalentemente come un’influenza teorica che ha preso le sfumature del contesto e dell’esperienza personale di chi se ne è fatto ricevente, diventandone così un continuatore attraverso il proprio percorso autonomo o collettivo intrapreso in seguito. Come suggerisce José Charters Monteiro, l’eredità di Rossi può essere letta attraverso tre aspetti su cui si basa la sua lezione: la biografia, la teoria dell’architettura, l’opera. In particolar modo per quanto riguarda la Penisola Iberica si può parlare dell’individuazione di un insegnamento riferito alla seconda categoria, i suoi libri di testo, le sue partecipazioni, le traduzioni. Questo è un lascito che rende possibile la continuazione di un dibattito in merito ai temi della teoria dell’architettura, della sue finalità e delle concrete applicazioni nelle opere, che ha permesso il verificarsi di una apertura mentale che mette in relazione l’architettura con altre discipline umanistiche e scientifiche, dalla politica, alla sociologia, comprendendo l’arte, le città la morfologia, la topografia, mediate e messe in relazione proprio attraverso l’architettura.
Resumo:
Questo lavoro ha come obiettivo l’utilizzo del Geographical Information System (GIS) per effettuare analisi di sicurezza, monitoraggio e valutazioni di impatto ambientale. Oggi, la totalità delle operazioni GIS possono essere svolte con software open source e in questa sedi si è scelto di utilizzare il GIS GRASS (Geographic Resources Analysis Support System) disponibile nei termini della GNU public license (GPL), mostrando l’usabilità e le notevoli potenzialità di tale software, nonché la qualità dei prodotti ottenibili, mai inferiori ai prodotti e agli strumenti messi a disposizione dai più radicati e diffusi programmi proprietari. Nel capitolo 4, vedremo l’applicazione all’analisi delle conseguenze di ipotetici incidenti, durante le operazioni di dismissione dell’impianto di processamento del combustibile nucleare, di Bosco Marengo (AL). Nel capitolo 5, vedremo applicazioni nel campo del monitoraggio della qualità dell’aria tramite analisi di immagini satellitari.
Resumo:
La trattazione inizia con l’analisi del concetto di “servizio” per focalizzarsi quindi sulla categoria dei “servizi pubblici”, nell’evoluzione dell’interpretazione dottrinale, fra concezione soggettiva e oggettiva, e sulle tipologie di servizio, con specifico riguardo a quelli aventi rilevanza nazionale. L’esposizione si suddivide dunque in due sezioni, rispettando la ripartizione del titolo. La prima parte è dedicata all’esame dei “ruoli”, ovvero delle parti coinvolte, a diverso titolo, in un rapporto di pubblico servizio: il “ruolo contrattuale”, rispetto al quale è stata esaminata la posizione dell’erogatore del servizio, da un lato, e dell’utente, dall’altro lato; il “ruolo di controllo”, esercitato dalle autorità amministrative indipendenti (Authorities); infine il “ruolo giurisdizionale”, dedicato alla complessa questione del riparto di giurisdizione in materia di servizi pubblici, fra giudice ordinario e giudice amministrativo, alla luce della nota sentenza della Corte Costituzionale, n. 204/2004. La seconda parte della tesi riguarda, invece, l’analisi dei “modelli contrattuali”, ovvero delle tipologie di contratto che vengono in rilievo in materia di servizi pubblici, astrattamente ascrivibili a tre distinti “gradi”. Il primo grado è rappresentato dal “contratto di servizio”, stipulato fra l’autorità pubblica che affida in gestione il servizio ed il soggetto, pubblico o privato, che se ne fa carico; l’affidamento può avere forma “diretta”, cioè prescindere da una procedura di gara (ipotesi della cd. “gestione diretta in economia” o del cd. “affidamento in house providing”) o “indiretta” (nel qual caso trova applicazione la normativa sugli appalti pubblici e le concessioni). Al secondo grado vi è il “codice di rete”, figura contrattuale che presuppone un la presenza di un servizio “a rete”. Il servizio a rete implica la presenza di una struttura o infrastruttura, concreta o astratta, ed una relazione reciproca fra gli elementi della stessa che convergono in vista della realizzazione di uno scopo e coinvolge tradizionalmente i servizi rispetto ai quali sussiste una situazione di monopolio naturale (trasporti, energia elettrica, gas, telecomunicazioni), caratterizzati dall’inopportunità pratica ed economica di creare una nuova rete. Di conseguenza, la possibilità di erogare il servizio, per gli operatori non titolari della rete, è rimessa alla stipulazione di un contratto (cd. “codice di rete) con il titolare della stessa, avente per oggetto la regolazione dello sfruttamento della rete, dietro pagamento di un corrispettivo economico. Il terzo grado è rappresentato dal “contratto di utenza”, le cui parti sono erogatore del servizio ed utente e la cui analisi è stata necessariamente preceduta dall’analisi del “rapporto di utenza”: quest’ultimo ha subito infatti una radicale trasformazione, nel corso degli ultimi decenni, soprattutto in seguito ai processi di liberalizzazione e privatizzazione che hanno coinvolto il settore de quo e condotto alla ricerca di nuovi strumenti di tutela dell’interesse generale, sotteso ad ogni pubblico servizio, contribuendo a conferire nuovo e preponderante interesse per l’utente, anche attraverso l’introduzione e l’applicazione di normative specifiche (in primis, quella in tema di clausole vessatorie e quella relativa alle azioni a tutela del consumatore-utente, oggi confluite nel codice del consumo). Per l’esame di ciascun argomento si è fatto costante riferimento alla normativa ed agli orientamenti comunitari; inoltre, si è scelto di prendere in considerazione, dopo l’esame generale delle principali tematiche sopramenzionate, il caso specifico del servizio radiotelevisivo.
Resumo:
The Poxviruses are a family of double stranded DNA (dsDNA) viruses that cause disease in many species, both vertebrate and invertebrate. Their genomes range in size from 135 to 365 kbp and show conservation in both organization and content. In particular, the central genomic regions of the chordopoxvirus subfamily (those capable of infecting vertebrates) contain 88 genes which are present in all the virus species characterised to date and which mostly occur in the same order and orientation. In contrast, however, the terminal regions of the genomes frequently contain genes that are species or genera-specific and that are not essential for the growth of the virus in vitro but instead often encode factors with important roles in vivo including modulation of the host immune response to infection and determination of the host range of the virus. The Parapoxviruses (PPV), of which Orf virus is the prototypic species, represent a genus within the chordopoxvirus subfamily of Poxviridae and are characterised by their ability to infect ruminants and humans. The genus currently contains four recognised species of virus, bovine papular stomatitis virus (BPSV) and pseudocowpox virus (PCPV) both of which infect cattle, orf virus (OV) that infects sheep and goats, and parapoxvirus of red deer in New Zealand (PVNZ). The ORFV genome has been fully sequenced, as has that of BPSV, and is ~138 kb in length encoding ~132 genes. The vast majority of these genes allow the virus to replicate in the cytoplasm of the infected host cell and therefore encode proteins involved in replication, transcription and metabolism of nucleic acids. These genes are well conserved between all known genera of poxviruses. There is however another class of genes, located at either end of the linear dsDNA genome, that encode proteins which are non-essential for replication and generally dictate host range and virulence of the virus. The non-essential genes are often the most variable within and between species of virus and therefore are potentially useful for diagnostic purposes. Given their role in subverting the host-immune response to infection they are also targets for novel therapeutics. The function of only a relatively small number of these proteins has been elucidated and there are several genes whose function still remains obscure principally because there is little similarity between them and proteins of known function in current sequence databases. It is thought that by selectively removing some of the virulence genes, or at least neutralising the proteins in some way, current vaccines could be improved. The evolution of poxviruses has been proposed to be an adaptive process involving frequent events of gene gain and loss, such that the virus co-evolves with its specific host. Gene capture or horizontal gene transfer from the host to the virus is considered an important source of new viral genes including those likely to be involved in host range and those enabling the virus to interfere with the host immune response to infection. Given the low rate of nucleotide substitution, recombination can be seen as an essential evolutionary driving force although it is likely underestimated. Recombination in poxviruses is intimately linked to DNA replication with both viral and cellular proteins participate in this recombination-dependent replication. It has been shown, in other poxvirus genera, that recombination between isolates and perhaps even between species does occur, thereby providing another mechanism for the acquisition of new genes and for the rapid evolution of viruses. Such events may result in viruses that have a selective advantage over others, for example in re-infections (a characteristic of the PPV), or in viruses that are able to jump the species barrier and infect new hosts. Sequence data related to viral strains isolated from goats suggest that possible recombination events may have occurred between OV and PCPV (Ueda et al. 2003). The recombination events are frequent during poxvirus replication and comparative genomic analysis of several poxvirus species has revealed that recombinations occur frequently on the right terminal region. Intraspecific recombination can occur between strains of the same PPV species, but also interspecific recombination can happen depending on enough sequence similarity to enable recombination between distinct PPV species. The most important pre-requisite for a successful recombination is the coinfection of the individual host by different virus strains or species. Consequently, the following factors affecting the distribution of different viruses to shared target cells need to be considered: dose of inoculated virus, time interval between inoculation of the first and the second virus, distance between the marker mutations, genetic homology. At present there are no available data on the replication dynamics of PPV in permissive and non permissive hosts and reguarding co-infetions there are no information on the interference mechanisms occurring during the simultaneous replication of viruses of different species. This work has been carried out to set up permissive substrates allowing the replication of different PPV species, in particular keratinocytes monolayers and organotypic skin cultures. Furthermore a method to isolate and expand ovine skin stem cells was has been set up to indeep further aspects of viral cellular tropism during natural infection. The study produced important data to elucidate the replication dynamics of OV and PCPV virus in vitro as well as the mechanisms of interference that can arise during co-infection with different viral species. Moreover, the analysis carried on the genomic right terminal region of PCPV 1303/05 contributed to a better knowledge of the viral genes involved in host interaction and pathogenesis as well as to locate recombination breakpoints and genetic homologies between PPV species. Taken together these data filled several crucial gaps for the study of interspecific recombinations of PPVs which are thought to be important for a better understanding of the viral evolution and to improve the biosafety of antiviral therapy and PPV-based vectors.
Resumo:
Nell’ambito dell’ingegneria dei tessuti, la possibilità di rigenerazione del miocardio post-infartuale è un argomento “caldo”, che suscita grandi speranze ma solleva altrettanto grandi interrogativi - sostenuti dal sussistere di dubbi di base sulle scelte operative praticabili. Esiste tuttavia concordanza nel considerare fondamentale l’utilizzo di un “supporto” che possa mantenere nella sede peri-infartuale le cellule competenti. Infatti, la semplice iniezione di cellule staminali per via endovenosa o direttamente nell’area infartuata non si è dimostrata particolarmente efficace, soprattutto a causa della cospicua perdita cellulare che si verifica rapidamente dopo il trapianto. Ci si orienta quindi verso la strategia di seminare cellule in grado di transdifferenziare in senso muscolare cardiaco su un materiale biocompatibile in vitro e di impiantare successivamente il costrutto ottenuto in vivo dove ci si attende il riassorbimento del biomateriale e l’integrazione delle cellule. Tuttavia, mentre in altri settori della medicina - quali ortopedia e dermatologia - l’impiego di pseudotessuti ingegnerizzati ha già permesso di conseguire ottimi risultati nella rigenerazione di tessuti danneggiati, allo stato attuale, i progressi ottenuti nell’ambito della rigenerazione del miocardio infartuato appaiono ancora aneddotici e distanti dall’ottenere protocolli condivisi per l’impiego in clinica. Il lavoro presentato in questa ricerca, condotto grazie alla sinergia di competenze interdisciplinari negli ambiti chimico, biologico e dell’ingegneria biomedica meccanica ed elettronica, è uno studio di fattibilità di una metodica standardizzata in grado di indirizzare cellule staminali mesenchimali (MSCs) indifferenziate verso l’acquisizione in vitro di caratteri fenotipici confrontabili con quelli delle cellule muscolari cardiache attraverso il paradigma della coltura dinamica in bioreattore. Il prototipo di bioreattore impiegato, in quanto sviluppato originalmente nel corso di questa attività di ricerca, presenta rispetto ad altri strumenti descritti l’innovazione e il vantaggio di non richiedere l’utilizzo di un incubatore, in quanto esso stesso permette di coltivare cellule al suo interno in condizioni controllate di temperatura, pH e concentrazione di CO2. La sua flessibilità operativa consente di impostare e controllare da personal computer leggi di moto di qualsiasi forma anche con cicliche molto veloci. Infine, la presenza di estensimetri in grado di misurare finemente la variazione di tensione esercitata sulla matrice polimerica utilizzata, posta in trazione tra due afferraggi, permette di applicare nel tempo una forza di stiramento costante, ottenendo deformazioni controllate e risultati riproducibili in termini di modificazioni cellulari. Il superamento delle problematiche sorte durante la fase di messa a punto del sistema, che deve essere ritenuto parte integrante del lavoro di sviluppo condotto, ha permesso di studiare l’adattamento di MSCs allo stiramento ciclico, mostrando che questo effettivamente determina alcune differenze fenotipiche rispetto al controllo statico. Inoltre le cellule hanno acquistato una disposizione orientata lungo l’asse longitudinale delle fibre, dato questo particolarmente importante se si considera la disposizione ordinata delle cellule del miocardio, le quali costituiscono un vero e proprio sincizio, indispensabile per una diffusione sincrona dell’impulso elettrico di contrazione. La creazione di uno pseudotessuto cardiaco ottimale richiederà ovviamente ulteriore lavoro, ma la metodica qui presentata si propone al tempo stesso come uno strumento di studio e come una strategia operativa per un approccio innovativo e standardizzabile alla medicina rigenerativa del miocardio.
Resumo:
Si tratta di uno studio osservazionale analitico di coorte prospettico volto a rilevare disfunzioni neuropsicologiche nei pazienti affetti da epilessia frontale notturna, attraverso una batteria di test che esplora i seguenti domini cognitivi: intelligenza generale, memoria, linguaggio, funzioni esecutive, attenzione, vigilanza, tempi di reazione, percezione della qualità della vita ed eventuale presenza di sintomi psichiatrici. Lo studio ha un follow up medio di 20 anni e riporta, per la prima volta in letteratura, lâevoluzione clinica dei soggetti che hanno avuto un esordio dellâepilessia in età evolutiva. Fino ad ora, lâepilessia frontale notturna è stata associata a disfunzioni cognitive nei soli casi di famiglie affette e nelle quali è stato possibile rilevare il difetto genetico. Questo studio ha rilevato la prevalenza di disturbi cognitivi e psichici in un campione di 24 soggetti affetti, mediante la somministrazione di una batteria di test specifica. I risultati sono stati analizzati con il programma statistico SPSS. Tutti i soggetti presentano abilità cognitive inferiori alla media in uno o più test ma il quoziente intellettivo risulta normale nei tre quarti del campione. Il ritardo mentale è più frequente e più grave nei soggetti idiopatici rispetto a quelli con alterazioni morfologiche frontali rilevate alla risonanza magnetica. Sono risultati più frequenti i disturbi della memoria, soprattutto quella a lungo termine e del linguaggio rispetto a quelli di tipo disesecutivo. Tutti i soggetti, che non hanno ottenuto un controllo delle crisi, manifestano una percezione della qualità della vita inferiore alla media. Eâ stata valutata lâinfluenza delle variabili cliniche (età di esordio dellâepilessia, frequenza e semeiologia delle crisi, durata della malattia e terapia antiepilettica), le anomalie elettroencefalografiche e le anomalie rilevate alla risonanza magnetica. Le variabili che sono in rapporto con un maggiore numero di disfunzioni neuropsicologiche sono: lâelevata frequenza di crisi allâesordio, lâassociazione con crisi in veglia, la presenza di crisi parziali secondariamente generalizzate e lâassunzione di una politerapia. I disturbi psichici prevalgono nei soggetti con anomalie elettroencefalografiche frontali sinistre. I dati neuropsicologici suggeriscono una disfunzione cognitiva prevalentemente fronto-temporale e, assieme ai dati clinici ed elettroencefalografici, sembrano confermare lâorigine mesiale e orbitale frontale delle anomalie epilettiche nellâepilessia frontale notturna.
Resumo:
Nonostante la riforma societaria ed i tentativi di rilanciare l’economia nazionale, ancora oggi la principale fonte di ricchezza e di capitalizzazione resta l’investimento immobiliare. Ed ecco perchè si sente sempre più parlare di “Real Estate”, ovvero dei diritti reali sui beni immobili, della loro circolazione, e delle garanzie e tutele ad essa correlate. Dalla vendita immobiliare tipizzata nel codice civile del ’42 ad oggi molto è cambiato. E il mio lavoro parte proprio da un’analisi delle nuove forme e dei nuovi limiti alla circolazione degli immobili. In primis ho affrontato il tema del riconoscimento giurisprudenziale della cessione di cubatura: un esempio tipico del passaggio dal fatto al diritto attraverso la costruzione giurisprudenziale di nuove fattispecie giuridiche già in uso fra gli operatori del mercato. Tecnicamente la stessa espressione “cessione di cubatura” non risulta corretta: non si ha una vera e propria cessione, quanto la costituzione di una servitù ius non edificandi a favore di un terreno e a carico di un altro. La giurisprudenza è ormai concorde nello stabilire che l’accordo delle parti rimane comunque privo di efficacia se ad esso non segue un permesso di costruire della Pubblica Amministrazione che riconosca la maggiore capacità edificatoria al terreno a cui vantaggio è stabilità la servitù. Un’altra nuova forma di circolazione della proprietà, così come degli altri diritti reali minori, è la multiproprietà. La multiproprietà viene disciplinata nel nostro ordinamento, a seguito di una risoluzione del Parlamento Europeo del 13 ottobre 1988, dapprima con il D.lgs. 9 novembre 1998 e da ultimo con il Codice del Consumo, che con gli artt. 69 ss. stabilisce una più puntuale tutela degli acquirenti. Si riconosce qui l’esistenza di uno squilibrio fra le posizioni contrattuali fra venditore ed acquirente/consumatore: vi è una profonda asimmetria informativa fra le parti, che viene colmata prevedendo la consegna al futuro acquirente di un dettagliato prospetto informativo predisposto dal venditore. La mia attenzione si è concentrata proprio sul tema delle tutele che il nostro ordinamento riconosce al consumatore multiproprietario: un prospetto informativo dal contenuto minimo legislativamente predeterminato, recesso, fideiussione. Ho dedicato un particolare approfondimento alla normativa sull’acquisto immobiliare sulla carta. Il D.lgs. 122/2005 si inserisce nel contesto di una legislazione, che spesso trova la sua origine nel diritto privato europeo, finalizzata alla regolamentazione di un fenomeno sempre più frequente nella realtà economica contemporanea, rappresentato dalla contrattazione fra soggetti che si trovano in una posizione di squilibrio contrattuale: un “contraente forte” da una parte, ed un “contraente debole” dall’altra. La legislazione nazionale interviene sempre più frequentemente per porre un rimedio a queste situazioni di squilibrio, con interventi di tipo conformativo intesi a rendere effettiva l’autonoma contrattuale delle parti e, conseguentemente, agevolare il corretto funzionamento del mercato. Si parla in tal senso di una ius espansiva del modello europeo di legislazione a tutela del contraente debole, e quindi di una espansione del diritto privato europeo anche in settori dove manca una puntuale normativa comunitaria. Vi è una generale tendenza ad un “neoformalismo”, che consiste nella richiesta espressa della forma scritta e nella conformazione del contenuto del contratto, che solo apparentemente limitano l’autonomia contrattuale delle parti ma che tende ad eliminare le situazioni di squilibrio dando una tutela effettiva al contraente debole. Contraente debole e non “consumatore”. L’art. 1 del decreto parla, infatti, espressamente di “persona fisica”. Secondo gli orientamenti dottrinali maggioritari dalla nuova disciplina resterebbero esclusi, e quindi non rientrerebbero nella definizione di “acquirenti”, le società, le persone giuridiche e gli enti collettivi in generale. Si riconosce la figura del “professionista debole”, giacché si riconosce che l’acquisto di un immobile da costruire sia un’operazione che, in virtù della sua importanza economica, viene gestita con maggiore avvedutezza: l’acquisto di un immobile non è propriamente “atto di consumo”in senso tecnico. L’esigenza di tutela è diversa: si vuole tutelare l’acquirente in considerazione dell’intrinseca rischiosità dell’operazione, stabilendo alcuni profili fondamentali del contenuto del contratto non solo e non tanto a fini informativi, quanto piuttosto per una “tutela sostanziale” dell’acquirente. Il legislatore si preoccupa di predisporre garanzie obbligatorie per il caso di dissesto dell’impresa costruttrice. Le garanzie, quindi, come forma di tutela del contraente debole. Il mio lavoro si concentra, a questo punto, sulle garanzie personali e reali. Poche le novità sulle garanzie, ma alcune significative. Nel campo delle garanzie personali, acquista maggiore rilevanza la fideiussione prestata dal contraente forte a favore del contraente debole, affinché quest’ultimo possa recuperare tutte le somme investite per l’acquisto dell’immobile: sia esso un immobile in multiproprietà, sia esso un immobile ancora da costruire. E ancora le garanzie reali: pegno e ipoteca. Ho posto particolare attenzione al tema della "portabilità" dei mutui e surrogazione ex art. 1202 c.c. ed al tema delle formalità ipotecarie così come previsti dagli artt. 6, 7 e 8 della l. 2 aprile 2007, n. 40 sulla concorrenza. Ma la mia attenzione si è soffermata soprattutto sul tema della nullità ed in particolare sulla nullità relativa. La più recente legislazione speciale, specie quella di derivazione europea, ha dato un grosso scossone alla dogmatica tradizionale della nullità negoziale. Le fattispecie di nullità relativa sono sempre più frequenti, tanto da far parlare di una nuova categoria di nullità c.d. “nullità di protezione”. Quest’ultima risponde ad esigenze profondamente differenti dalla nullità assoluta di stampo codicistico. In luogo della nullità, sembra oggi più corretto parlare delle nullità: diverse categorie di invalidità, ciascuna delle quali soddisfa interessi diversificati, e come tale riceve anche una disciplina differenziata in termini di legittimazione all’azione, rilevabilità d’ufficio, prescrittibilità, sanabilità, opponibilità ai terzi. Ancora una volta partendo da un’analisi critica del D.lgs. 122/2005, ho avuto modo di approfondire il fondamentale tema della nullità nel nostro ordinamento. L’art. 2 del decreto stabilisce espressamente la nullità relativa, e cioè azionabile dal solo acquirente parte debole del contratto, nel caso in cui non sia rilasciata dal venditore la fideiussione. L’art. 6 stabilisce, invece, un contenuto minimo del contratto poste a tutela della parte debole e del corretto funzionamento del mercato immobiliare. Se ad alcune di esse può attribuirsi un valore meramente ordinatorio, altre al contrario rivestono una natura di norme imperative di ordine pubblico attinenti più precisamente al c.d. ordine pubblico di protezione ed al c.d. ordine pubblico di direzione. Nel sistema del nostro codice, la violazione di norma imperative dà luogo, ex art. 1418, alla nullità del contatto salvo che la legge stabilisca diversamente. E’quindi configurabile una nullità virtuale del contratto, ovvero non espressamente e letteralmente stabilita, ma che può essere desunta dal tenore imperativo delle norme. La dottrina prevalente è ormai orientata nel senso di ammettere che anche la nullità relativa possa essere virtuale, nel quadro di un orientamento, ormai dominante, volto al superamento dell’approccio tendente a far rientrare nell’eccezionalità qualsiasi difformità dal modello classico della nullità. Il problema, quindi, si sposta all’individuazione della natura imperativa della norma violata. In linea generale si afferma che perché una norma possa essere definita imperativa debba porre un comando o un divieto espresso, debba essere inderogabile ed indisponibile. Oggetto di dibattiti dottrinali è, poi, il tema della rilevabilità d’ufficio delle nullità relative. A fronte di una prima posizione dottrinale tendente ad escludere tale rilevabilità d’ufficio sul presupposto di una sua inconciliabilità con il regime di legittimazione relativa all’azione di nullità, dottrina e giurisprudenza più recenti appaiono concordi nel ritenere assolutamente conciliabili tali due profili. Si concorda, inoltre, sull’esistenza di limitazioni alla rilevabilità d’ufficio della nullità: la nullità può essere rilevata d’ufficio dal giudice, ma tale rilievo deve operare nell’esclusivo interesse del contraente debole, dovendo il giudice bloccarsi davanti ad un concreto interesse della parte a mantenere in vita il contratto. Discorso a sé stante deve poi esser fatto sul rapporto fra nullità relativa e nullità virtuale e responsabilità del notaio rogante. Secondo l’orientamento dominante della giurisprudenza, nella misura in cui vi sia una violazione di norme imperative, e l’imperatività sia evidente, manifesta, dal tenore delle disposizioni, deve ritenersi che la nullità, sia testuale che virtuale, comporti la responsabilità del notaio ai sensi dell’art. 28 l. not. Ogni qualvolta, viceversa, tale nullità non si configuri, la responsabilità disciplinare sarà esclusa. Si avverte, comunque, una prima apertura verso la sanzionabilità delle nullità relative che siano manifeste. In chiusura del mio lavoro non ho potuto non tenere conto della recente crisi dei mercati internazionali. Crisi che ha avuto inizio proprio con il crollo negli Stati Uniti dei settori immobiliare e finanziario, improntati verso una eccessiva deregolamentazione e valorizzazione dell’autonomia contrattuale delle parti. L’assenza di garanzie sicure e la carenza di controllo di un professionista corrispondente al nostro notaio pubblico ufficiale, ha portato ad investimenti e finanziamenti azzardati da parte delle banche e degli istituti di credito che stanno vivendo un momento di profonda crisi aprendo la strada ad una recessione economica di portata mondiale.
Resumo:
Il problema della sicurezza/insicurezza delle città, dalle grandi metropoli sino ai più piccoli centri urbani, ha sollecitato negli ultimi anni un’attenzione crescente da parte degli studiosi, degli analisti, degli organi di informazione, delle singole comunità. La delinquenza metropolitana viene oggi diffusamente considerata «un aspetto usuale della società moderna»: «un fatto – o meglio un insieme di fatti – che non richiede nessuna speciale motivazione o predisposizione, nessuna patologia o anormalità, e che è iscritto nella routine della vita economica e sociale». Svincolata dagli schemi positivistici, la dottrina criminologica ha maturato una nuova «cultura del controllo sociale» che ha messo in risalto, rispetto ad ogni visione enfatizzante del reo, l’esigenza di pianificare adeguate politiche e pratiche di prevenzione della devianza urbana attraverso «tutto l’insieme di istituzioni sociali, di strategie e di sanzioni, che mirano a ottenere la conformità di comportamento nella sfera normativa penalmente tutelata». Tale obiettivo viene generalmente perseguito dagli organismi istituzionali, locali e centrali, con diverse modalità annoverabili nel quadro degli interventi di: prevenzione sociale in cui si includono iniziative volte ad arginare la valenza dei fattori criminogeni, incidendo sulle circostanze sociali ed economiche che determinano l’insorgenza e la proliferazione delle condotte delittuose negli ambienti urbani; prevenzione giovanile con cui si tende a migliorare le capacità cognitive e relazionali del minore, in maniera tale da controllare un suo eventuale comportamento aggressivo, e ad insegnare a genitori e docenti come gestire, senza traumi ed ulteriori motivi di tensione, eventuali situazioni di crisi e di conflittualità interpersonale ed interfamiliare che coinvolgano adolescenti; prevenzione situazionale con cui si mira a disincentivare la propensione al delitto, aumentando le difficoltà pratiche ed il rischio di essere scoperti e sanzionati che – ovviamente – viene ponderato dal reo. Nella loro quotidianità, le “politiche di controllo sociale” si sono tuttavia espresse in diversi contesti – ed anche nel nostro Paese - in maniera a tratti assai discutibile e, comunque, con risultati non sempre apprezzabili quando non - addirittura – controproducenti. La violenta repressione dei soggetti ritenuti “devianti” (zero tolerance policy), l’ulteriore ghettizzazione di individui di per sé già emarginati dal contesto sociale, l’edificazione di interi quartieri fortificati, chiusi anche simbolicamente dal resto della comunità urbana, si sono rivelate, più che misure efficaci nel contrasto alla criminalità, come dei «cortocircuiti semplificatori in rapporto alla complessità dell’insieme dei problemi posti dall’insicurezza». L’apologia della paura è venuta così a riflettersi, anche fisicamente, nelle forme architettoniche delle nuove città fortificate ed ipersorvegliate; in quelle gated-communities in cui l’individuo non esita a sacrificare una componente essenziale della propria libertà, della propria privacy, delle proprie possibilità di contatto diretto con l’altro da sé, sull’altare di un sistema di controllo che malcela, a sua volta, implacabili contraddizioni. Nei pressanti interrogativi circa la percezione, la diffusione e la padronanza del rischio nella società contemporanea - glocale, postmoderna, tardomoderna, surmoderna o della “seconda modernità”, a seconda del punto di vista al quale si aderisce – va colto l’eco delle diverse concezioni della sicurezza urbana, intesa sia in senso oggettivo, quale «situazione che, in modo obiettivo e verificabile, non comporta l’esposizione a fattori di rischio», che in senso soggettivo, quale «risultante psicologica di un complesso insieme di fattori, tra cui anche indicatori oggettivi di sicurezza ma soprattutto modelli culturali, stili di vita, caratteristiche di personalità, pregiudizi, e così via». Le amministrazioni locali sono direttamente chiamate a garantire questo bisogno primario di sicurezza che promana dagli individui, assumendo un ruolo di primo piano nell’adozione di innovative politiche per la sicurezza urbana che siano fra loro complementari, funzionalmente differenziate, integrali (in quanto parte della politica di protezione integrale di tutti i diritti), integrate (perché rivolte a soggetti e responsabilità diverse), sussidiarie (perché non valgono a sostituire i meccanismi spontanei di prevenzione e controllo della devianza che si sviluppano nella società), partecipative e multidimensionali (perché attuate con il concorso di organismi comunali, regionali, provinciali, nazionali e sovranazionali). Questa nuova assunzione di responsabilità da parte delle Amministrazioni di prossimità contribuisce a sancire il passaggio epocale «da una tradizionale attività di governo a una di governance» che deriva «da un’azione integrata di una molteplicità di soggetti e si esercita tanto secondo procedure precostituite, quanto per una libera scelta di dar vita a una coalizione che vada a vantaggio di ciascuno degli attori e della società urbana nel suo complesso». All’analisi dei diversi sistemi di governance della sicurezza urbana che hanno trovato applicazione e sperimentazione in Italia, negli ultimi anni, e in particolare negli ambienti territoriali e comunitari di Roma e del Lazio che appaiono, per molti versi, esemplificativi della complessa realtà metropolitana del nostro tempo, è dedicata questa ricerca. Risulterà immediatamente chiaro come il paradigma teorico entro il quale si dipana il percorso di questo studio sia riconducibile agli orientamenti della psicologia topologica di Kurt Lewin, introdotti nella letteratura sociocriminologica dall’opera di Augusto Balloni. Il provvidenziale crollo di antichi steccati di divisione, l’avvento di internet e, quindi, la deflagrante estensione delle frontiere degli «ambienti psicologici» in cui è destinata a svilupparsi, nel bene ma anche nel male, la personalità umana non hanno scalfito, a nostro sommesso avviso, l’attualità e la validità della «teoria del campo» lewiniana per cui il comportamento degli individui (C) appare anche a noi, oggi, condizionato dalla stretta interrelazione che sussiste fra le proprie connotazioni soggettive (P) e il proprio ambiente di riferimento (A), all’interno di un particolare «spazio di vita». Su queste basi, il nostro itinerario concettuale prende avvio dall’analisi dell’ambiente urbano, quale componente essenziale del più ampio «ambiente psicologico» e quale cornice straordinariamente ricca di elementi di “con-formazione” dei comportamenti sociali, per poi soffermarsi sulla disamina delle pulsioni e dei sentimenti soggettivi che agitano le persone nei controversi spazi di vita del nostro tempo. Particolare attenzione viene inoltre riservata all’approfondimento, a tratti anche critico, della normativa vigente in materia di «sicurezza urbana», nella ferma convinzione che proprio nel diritto – ed in special modo nell’ordinamento penale – vada colto il riflesso e la misura del grado di civiltà ma anche delle tensioni e delle contraddizioni sociali che tormentano la nostra epoca. Notevoli spunti ed un contributo essenziale per l’elaborazione della parte di ricerca empirica sono derivati dall’intensa attività di analisi sociale espletata (in collaborazione con l’ANCI) nell’ambito dell’Osservatorio Tecnico Scientifico per la Sicurezza e la Legalità della Regione Lazio, un organismo di supporto della Presidenza della Giunta Regionale del Lazio al quale compete, ai sensi dell’art. 8 della legge regionale n. 15 del 2001, la funzione specifica di provvedere al monitoraggio costante dei fenomeni criminali nel Lazio.
Resumo:
Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà indagare l'incidenza di tale variabile quando il "fattore OGM" sarà prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.
Resumo:
Con il presente lavoro, che ha ad oggetto l’istituto dello scioglimento anticipato delle Camere nell’ordinamento costituzionale italiano, il candidato si propone tre obiettivi. Il primo è quello della ricostruzione dogmatica dell’istituto che sconta inevitabilmente un grosso debito nei confronti della vasta letteratura giuridica che si è sviluppata nel corso dei decenni. Il secondo obiettivo è quello, ben più originale, dell’indagine sulla prassi che ha contraddistinto il ricorso allo scioglimento nella peculiare realtà italiana. In questo modo si viene colmando uno spazio di ricerca diretto a leggere gli avvenimenti e a ricondurli in un quadro costituzionale sistematico, anche al fine di ricavare utili riflessioni circa la conformità della prassi stessa al dato normativo, nonché sulle modalità di funzionamento concreto dell'istituto. Il terzo obiettivo, quello più ambizioso, è utilizzare le considerazioni così sviluppate per ricercare soluzioni interpretative adeguate all’evoluzione subita dall’assetto politico-istituzionale italiano negli ultimi due decenni. Quanto al metodo, la scelta del candidato è stata quella di ricorrere ad uno strumentario che pone in necessaria sequenza logica: a) i presupposti storici/comparatistici e il dibattito in Assemblea costituente, utili per l’acquisizione del patrimonio del parlamentarismo europeo del tempo e per la comprensione del substrato su cui si costruisce l’edificio costituzionale; b) il testo costituzionale, avvalendosi anche delle importanti considerazioni svolte dalla dottrina più autorevole; c) la prassi costituzionale, consistente nella fase di implementazione concreta del disposto normativo. La finalità che il candidato si pone è dimostrare la possibilità di configurare lo scioglimento secondo un modello di tipo “primoministeriale”. Per quanto riguarda la prima parte della ricerca, dalla pur sintetica descrizione dei precedenti storici (sia rispetto alle realtà europee, inglese e francese in primis, che al periodo prerepubblicano) si trae conferma che l’operatività dell’istituto è intrinsecamente influenzata dalla forma di governo. Una prima indicazione che emerge con forza è come la strutturazione del sistema partitico e il grado di legame tra Assemblea rappresentativa e Gabinetto condizionino la ratio del potere di scioglimento, la sua titolarità ed il suo effettivo rendimento. Infatti, in presenza di regimi bipartitici e di impianti istituzionali che accentuano il raccordo fiduciario, il Capo dello Stato tende all’emarginazione, e lo scioglimento acquisisce carattere di automaticità tutte le volte in cui si verificano crisi ministeriali (eventualità però piuttosto rara); più consueto è invece lo scioglimento primoministeriale libero, come arma politica vera e propria attraverso cui il Governo in carica tende a sfruttare il momento migliore per ricercare il giudizio del popolo. Al contrario, dove il sistema politico è più dinamico, e il pluralismo sociale radicalizzato, il Capo dello Stato interferisce fortemente nella vita istituzionale e, in particolare, nella formazione dell’indirizzo politico: in quest’ottica lo scioglimento viene da questi inglobato, ed il suo ricorso subordinato ad esigenze di recupero della funzionalità perduta; soprattutto, quando si verificano crisi ministeriali (invero frequenti) il ricorso alle urne non è conseguenza automatica, ma semmai gli viene preferita la via della formazione di un Gabinetto poggiante su una maggioranza alternativa. L’indagine svolta dal candidato sui lavori preparatori mostra come il Costituente abbia voluto perseguire l'obiettivo di allargare le maglie della disciplina costituzionale il più possibile, in modo da poter successivamente ammettere più soluzioni interpretative. Questa conclusione è il frutto del modo in cui si sono svolte le discussioni. Le maggiori opzioni prospettate si collocavano lungo una linea che aveva ad un estremo una tassativa preordinazione delle condizioni legittimanti, ed all’altro estremo l’esclusiva e pressoché arbitraria facoltà decisionale dello scioglimento nelle mani del Capo dello Stato; in mezzo, la via mediana (e maggiormente gradita) del potere sì presidenziale, benché circondato da tutta una serie di limiti e garanzie, nel quadro della costruzione di una figura moderatrice dei conflitti tra Esecutivo e Legislativo. Ma non bisogna tralasciare che, seppure rare, diverse voci propendevano per la delineazione di un potere governativo di scioglimento la quale impedisse che la subordinazione del Governo al Parlamento si potesse trasformare in degenerazione assemblearista. Quindi, il candidato intende sottolineare come l’adamantina prescrizione dell’art. 88 non postuli, nell’ambito dell’interpretazione teleologica che è stata data, alcuno specifico indirizzo interpretativo dominante: il che, in altri termini, è l’ammissione di una pluralità di concezioni teoricamente valide. L'analisi del dettato costituzionale non ha potuto prescindere dalla consolidata tripartizione delle teorie interpretative. Dall'analisi della letteratura emerge la preferenza per la prospettiva dualistica, anche in virtù del richiamo che la Costituzione svolge nei confronti delle competenze sia del Presidente della Repubblica (art. 88) che del Governo (art. 89), il che lo convince dell’inopportunità di imporre una visione esclusivista, come invece sovente hanno fatto i sostenitori della tesi presidenziale. Sull’altro versante ciò gli permette di riconferire una certa dignità alla tesi governativa, che a partire dal primo decennio repubblicano era stata accantonata in sede di dibattito dottrinario: in questo modo, entrambe le teoriche fondate su una titolarità esclusiva assumono una pari dignità, benchè parimenti nessuna delle due risulti persuasiva. Invece, accedere alla tesi della partecipazione complessa significa intrinsecamente riconoscere una grande flessibilità nell’esercizio del potere in questione, permettendo così una sua più adeguata idoneità a mutare le proprie sembianze in fase applicativa e a calarsi di volta in volta nelle situazioni contingenti. Questa costruzione si inserisce nella scelta costituente di rafforzare le garanzie, ed il reciproco controllo che si instaura tra Presidente e Governo rappresenta la principale forma di tutela contro potenziali abusi di potere. Ad ognuno dei due organi spettano però compiti differenti, poiché le finalità perseguite sono differenti: come l’Esecutivo agisce normalmente secondo canoni politici, in quanto principale responsabile dell’indirizzo politico, al Capo dello Stato si addice soprattutto il compito di sorvegliare il regolare svolgimento dei meccanismi istituzionali, in posizione di imparzialità. Lo schema costituzionale, secondo il candidato, sembra perciò puntare sulla leale collaborazione tra i poteri in questione, senza però predefinire uno ruolo fisso ed immutabile, ma esaltando le potenzialità di una configurazione così eclettica. Assumendo questa concezione, si ha buon gioco a conferire piena cittadinanza costituzionale all’ipotesi di scioglimento disposto su proposta del Presidente del Consiglio, che si può ricavare in via interpretativa dalla valorizzazione dell’art. 89 Cost. anche secondo il suo significato letterale. Al discorso della titolarità del potere di scioglimento, il candidato lega quello circa i presupposti legittimanti, altro nodo irrisolto. La problematica relativa alla loro definizione troverebbe un decisivo ridimensionamento nel momento in cui si ammette la compartecipazione di Governo e Presidente della Repubblica: il diverso titolo con il quale essi cooperano consentirebbe di prevenire valutazioni pretestuose circa la presenza delle condizioni legittimanti, poichè è nel reciproco controllo che entrambi gli organi individuano i confini entro cui svolgere le rispettive funzioni. Si giustificano così sia ragioni legate ad esigenze di funzionalità del sistema (le più ricorrenti in un sistema politico pluripartitico), sia quelle scaturenti dalla divaricazione tra orientamento dei rappresentati e orientamento dei rappresentanti: purchè, sottolinea il candidato, ciò non conduca il Presidente della Repubblica ad assumere un ruolo improprio di interferenza con le prerogative proprie della sfera di indirizzo politico. Il carattere aperto della disciplina costituzionale spinge inevitabilmente il candidato ad approfondire l'analisi della prassi, la cui conoscenza costituisce un fondamentale modo sia per comprendere il significato delle disposizioni positive che per apprezzare l’utilità reale ed il rendimento sistemico dell’istituto. Infatti, è proprio dall'indagine sulla pratica che affiorano in maniera prepotente le molteplici virtualità dello strumento dissolutorio, con modalità operative che, a seconda delle singole fasi individuate, trovano una strutturazione casistica variabile. In pratica: nel 1953 e nel 1958 è l'interesse del partito di maggioranza relativa ad influenzare il Governo circa la scelta di anticipare la scadenza del Senato; nel 1963 e nel 1968 invece si fa strada l'idea del consenso diffuso allo scioglimento, seppure nel primo caso l'anticipo valga ancora una volta per il solo Senato, e nel secondo ci si trovi di fronte all'unica ipotesi di fine naturale della legislatura; nel 1972, nel 1976, nel 1979, nel 1983 e nel 1987 (con una significativa variante) si manifesta con tutta la sua forza la pratica consociativa, figlia della degenerazione partitocratica che ha svuotato le istituzioni giuridiche (a partire dal Governo) e cristallizzato nei partiti politici il centro di gravità della vita pubblica; nel 1992, a chiusura della prima epoca repubblicana, caratterizzata dal dominio della proporzionale (con tutte le sue implicazioni), si presentano elementi atipici, i quali vanno a combinarsi con le consolidate tendenze, aprendo così la via all'incertezza sulle tendenze future. È con l'avvento della logica maggioritaria, prepotentemente affacciatasi per il tramite dei referendum elettorali, a sconvolgere il quadro delle relazioni fra gli organi costituzionali, anche per quanto concerne ratio e caratteristiche del potere di scioglimento delle Camere. Soprattutto, nella fase di stretta transizione che ha attraversato il quadriennio 1992-1996, il candidato mette in luce come i continui smottamenti del sistema politico abbiano condotto ad una fase di destabilizzazione anche per quanto riguarda la prassi, incrinando le vecchie regolarità e dando vita a potenzialità fino allora sconosciute, addirittura al limite della conformità a Costituzione. La Presidenza Scalfaro avvia un processo di netta appropriazione del potere di scioglimento, esercitandolo in maniera esclusiva, grazie anche alla controfirma offerta da un Governo compiacente (“tecnicco”, perciò debitore della piena fiducia quirinalizia). La piena paternità presidenziale, nel 1994, è accompagnata da un altro elemento di brusca rottura con il passato, ossia quello della ragione legittimante: infatti, per la prima volta viene addotta palesemente la motivazione del deficit di rappresentatività. Altro momento ad aver costituito da spartiacque nell’evoluzione della forma di governo è stato il mancato scioglimento a seguito della crisi del I Governo Berlusconi, in cui forti erano state le pressioni perché si adeguasse il parlamentarismo secondo i canoni del bipolarismo e del concetto di mandato di governo conferito direttamente dagli elettori ad una maggioranza (che si voleva predefinita, nonostante essa in verità non lo fosse affatto). Dopo questa parentesi, secondo il candidato la configurazione dello strumento dissolutorio si allinea su ben altri binari. Dal punto di vista della titolarità, sono i partiti politici a riprendere vigorosamente un certo protagonismo decisionale, ma con una netta differenza rispetto al passato consociativo: ora, il quadro politico pare saldamente attestato su una dinamica bipolare, per cui anche in relazione all’opzione da adottare a seguito di crisi ministeriale sono le forze della maggioranza che decidono se proseguire la legislatura (qualora trovino l’accordo tra di loro) o se sciogliere (allorchè invece si raggiunga una sorta di maggioranza per lo scioglimento). Dal punto di vista dei presupposti, sembra consolidarsi l’idea che lo scioglimento rappresenti solo l’extrema ratio, chiamando gli elettori ad esprimersi solo nel momento in cui si certifica l’assoluta impossibilità di ripristinare la funzionalità perduta. Conclusioni. Il rafforzamento della prospettiva bipolare dovrebbe postulare una riconfigurazione del potere di scioglimento tesa a valorizzare la potestà decisionale del Governo. Ciò discenderebbe dal principio secondo cui il rafforzamento del circuito che unisce corpo elettorale, maggioranza parlamentare e Governo, grazie al collante di un programma politico condiviso, una coalizione che si presenta alle elezioni ed un candidato alla Presidenza del Consiglio che incarna la perfetta sintesi di tutte queste istanze, comporta che alla sua rottura non si può che tornare al giudizio elettorale: e quindi sciogliere le Camere, evitando la composizione di maggioranze che non rappresentano la diretta volontà popolare. Il candidato però non ritiene auspicabile l’adozione di un automatismo analogo alla regola dell'aut simul stabunt aut simul cadent proprio dell’esperienza regionale post 1999, perché soluzione eccessivamente rigida, che ingesserebbe in maniera inappropriata una forma parlamentare che comunque richiede margini di flessiblità. La proposta è invece di rileggere il testo costituzionale, rebus sic stantibus, nel senso di far prevalere un potere libero di proposta da parte del Governo, cui il Capo dello Stato non potrebbe non consentire, salvo svolgere un generale controllo di costituzionalità volto ad accertare l’insussistenza di alcuna forma di abuso. Su queste conclusioni il lavoro esprime solo prime idee, che meritano di essere approfondite. Come è da approfondire un tema che rappresenta forse l’elemento di maggiore originalità: trattasi della qualificazione e descrizione di un mandato a governare, ossia della compatibilità costituzionale (si pensi, in primis, al rapporto con il divieto di mandato imperativo di cui all’art. 67 Cost.) di un compito di governo che, tramite le elezioni, gli elettori affidano ad una determinata maggioranza, e che va ad arricchire il significato del voto rispetto a quello classico della mera rappresentanza delle istanze dei cittadini (e propria del parlamentarismo ottocentesco): riflessi di tali considerazioni si avrebbero inevitabilmente anche rispetto alla concezione del potere di scioglimento, che in siffatta maniera verrebbe percepito come strumento per il ripristino del “circuito di consonanza politica” che in qualche modo si sarebbe venuto a rompere. Ad ogni buon conto, già emergono dei riflessi in questo senso, per cui la strada intrapresa dal candidato pare quella giusta affinchè l’opera risulti completa, ben argomentata ed innovativa.
Resumo:
La tesi propone un approccio semiotico ai videogiochi e indaga le relazioni tra videogioco, memoria e senso, a partire dall’analisi di un ampio corpus di videogiochi, trasversale rispetto ai generi. Il lavoro intende mostrare la proficuità di un incontro tra semiotica e videogiochi sotto un duplice punto di vista: da un lato i videogiochi, in quanto oggetti “nuovi”, rappresentano un buon banco di prova per la teoria e la metodologia semiotica; dall’altro lato la semiotica permette di comprendere meglio i videogiochi, ricostruendo i meccanismi semiotici che contribuiscono a generare gli effetti di senso tipici di questa forma testuale (es. immersività, interattività, flusso…). Il lavoro si propone quindi il duplice obiettivo di individuare le peculiarità del videogioco in quanto oggetto di analisi semiotica (cap. 1) e i meccanismi che in diversi generi videoludici portano alla creazione di effetti di senso peculiari e alla costruzione di una nuova memoria (capp. 3, 4, 5). Il primo capitolo è dedicato a una riflessione teorica e metodologica che intende preparare il campo per l’analisi, provando a “testare” modelli, concetti e strumenti più o meno assestati con lo scopo di riconoscere lo statuto semiotico dei videogiochi e di individuare il modo migliore per analizzarli semioticamente. Inoltre nel cap. 1 si affrontano, ancora in un’ottica generale, le dinamiche tra memoria del gioco e memoria del giocatore e l’importanza dei processi di apprendimento per l’interpretazione videoludica. Gli ultimi tre capitoli sono invece dedicati ai risultati delle analisi, condotte su un corpus ampio di videogiochi, affiancato da un corpus “di controllo” costituito da video di partite concrete, immagini user-generated, interfacce fisiche di gioco e “discorsi su” i videogiochi inseriti nel corpus principale. Il terzo capitolo individua i meccanismi semiotici che contribuiscono a costruire, de-costruire e ricostruire l’identità del giocatore nel corso della partita. Il quarto capitolo affronta la relazione tra tempo del gioco e tempo del giocatore, concentrandosi sulle modalità di configurazione del tempo in atto nei diversi generi videoludici. L’ultimo capitolo è dedicato all’approfondimento di un aspetto particolare della testualità videoludica: la capacità dei videogiochi di generare esperienze embodied, cioè esperienze ‘incarnate’ e ‘situate’.
Resumo:
The first part of the thesis is a brief review on the most important aspects of HEV infection in human and swine, followed by an update on the laboratory techniques currently in use for the diagnosis of HEV infections in humans and animals. The second part refers on the results of two investigations carried out on the presence of HEV infection in swine farms in Toscana and Piemonte and on the presence of HEV infection in pigs and humans in some rural communities in Bolivia. HEV strains isolated from swine herds in Toscana and Piemonte were all included in the genotype 3, showing particular homology with Dutch porcine isolates, Spanish porcine and human isolates and British human isolates. The investigation carried out, with a random sampling, in the province of Cuneo, detected HEV infection with a prevalence of 46% on farms with a number of pigs greater than 500. HEV was detected in pigs and humans in rural communities in Bolivia and all the viral isolate were included in the genotype 3. Aminoacidic homology of human and swine isolates was estimated to be 92%. Results on the development of a Real Time RT-PCR to detect HEV are also reported. The used Real Time RT-PCR protocols, one step and two steps, exhibited good sensitivity to detect several Italian swine HEV strains with high rate of genetic variability.