1000 resultados para Reale Istituto veneto di scienze, lettere ed arti (Venice, Italy)
Resumo:
L’interazione che abbiamo con l’ambiente che ci circonda dipende sia da diverse tipologie di stimoli esterni che percepiamo (tattili, visivi, acustici, ecc.) sia dalla loro elaborazione per opera del nostro sistema nervoso. A volte però, l’integrazione e l’elaborazione di tali input possono causare effetti d’illusione. Ciò si presenta, ad esempio, nella percezione tattile. Infatti, la percezione di distanze tattili varia al variare della regione corporea considerata. Il concetto che distanze sulla cute siano frequentemente erroneamente percepite, è stato scoperto circa un secolo fa da Weber. In particolare, una determinata distanza fisica, è percepita maggiore su parti del corpo che presentano una più alta densità di meccanocettori rispetto a distanze applicate su parti del corpo con inferiore densità. Oltre a questa illusione, un importante fenomeno osservato in vivo è rappresentato dal fatto che la percezione della distanza tattile dipende dall’orientazione degli stimoli applicati sulla cute. In sostanza, la distanza percepita su una regione cutanea varia al variare dell’orientazione degli stimoli applicati. Recentemente, Longo e Haggard (Longo & Haggard, J.Exp.Psychol. Hum Percept Perform 37: 720-726, 2011), allo scopo di investigare come sia rappresentato il nostro corpo all’interno del nostro cervello, hanno messo a confronto distanze tattili a diverse orientazioni sulla mano deducendo che la distanza fra due stimoli puntuali è percepita maggiore se applicata trasversalmente sulla mano anziché longitudinalmente. Tale illusione è nota con il nome di Illusione Tattile Orientazione-Dipendente e diversi risultati riportati in letteratura dimostrano che tale illusione dipende dalla distanza che intercorre fra i due stimoli puntuali sulla cute. Infatti, Green riporta in un suo articolo (Green, Percpept Pshycophys 31, 315-323, 1982) il fatto che maggiore sia la distanza applicata e maggiore risulterà l’effetto illusivo che si presenta. L’illusione di Weber e l’illusione tattile orientazione-dipendente sono spiegate in letteratura considerando differenze riguardanti la densità di recettori, gli effetti di magnificazione corticale a livello della corteccia primaria somatosensoriale (regioni della corteccia somatosensoriale, di dimensioni differenti, sono adibite a diverse regioni corporee) e differenze nella dimensione e forma dei campi recettivi. Tuttavia tali effetti di illusione risultano molto meno rilevanti rispetto a quelli che ci si aspetta semplicemente considerando i meccanismi fisiologici, elencati in precedenza, che li causano. Ciò suggerisce che l’informazione tattile elaborata a livello della corteccia primaria somatosensoriale, riceva successivi step di elaborazione in aree corticali di più alto livello. Esse agiscono allo scopo di ridurre il divario fra distanza percepita trasversalmente e distanza percepita longitudinalmente, rendendole più simili tra loro. Tale processo assume il nome di “Rescaling Process”. I meccanismi neurali che operano nel cervello allo scopo di garantire Rescaling Process restano ancora largamente sconosciuti. Perciò, lo scopo del mio progetto di tesi è stato quello di realizzare un modello di rete neurale che simulasse gli aspetti riguardanti la percezione tattile, l’illusione orientazione-dipendente e il processo di rescaling avanzando possibili ipotesi circa i meccanismi neurali che concorrono alla loro realizzazione. Il modello computazionale si compone di due diversi layers neurali che processano l’informazione tattile. Uno di questi rappresenta un’area corticale di più basso livello (chiamata Area1) nella quale una prima e distorta rappresentazione tattile è realizzata. Per questo, tale layer potrebbe rappresentare un’area della corteccia primaria somatosensoriale, dove la rappresentazione della distanza tattile è significativamente distorta a causa dell’anisotropia dei campi recettivi e della magnificazione corticale. Il secondo layer (chiamato Area2) rappresenta un’area di più alto livello che riceve le informazioni tattili dal primo e ne riduce la loro distorsione mediante Rescaling Process. Questo layer potrebbe rappresentare aree corticali superiori (ad esempio la corteccia parietale o quella temporale) adibite anch’esse alla percezione di distanze tattili ed implicate nel Rescaling Process. Nel modello, i neuroni in Area1 ricevono informazioni dagli stimoli esterni (applicati sulla cute) inviando quindi informazioni ai neuroni in Area2 mediante sinapsi Feed-forward eccitatorie. Di fatto, neuroni appartenenti ad uno stesso layer comunicano fra loro attraverso sinapsi laterali aventi una forma a cappello Messicano. E’ importante affermare che la rete neurale implementata è principalmente un modello concettuale che non si preme di fornire un’accurata riproduzione delle strutture fisiologiche ed anatomiche. Per questo occorre considerare un livello astratto di implementazione senza specificare un’esatta corrispondenza tra layers nel modello e regioni anatomiche presenti nel cervello. Tuttavia, i meccanismi inclusi nel modello sono biologicamente plausibili. Dunque la rete neurale può essere utile per una migliore comprensione dei molteplici meccanismi agenti nel nostro cervello, allo scopo di elaborare diversi input tattili. Infatti, il modello è in grado di riprodurre diversi risultati riportati negli articoli di Green e Longo & Haggard.
Resumo:
In this research work I analyzed the instrumental seismicity of Southern Italy in the area including the Lucanian Apennines and Bradano foredeep, making use of the most recent seismological database available so far. I examined the seismicity occurred during the period between 2001 and 2006, considering 514 events with magnitudes M ≥ 2.0. In the first part of the work, P- and S-wave arrival times, recorded by the Italian National Seismic Network (RSNC) operated by the Istituto Nazionale di Geofisica e Vulcanologia (INGV), were re-picked along with those of the SAPTEX temporary array (2001–2004). For some events located in the Upper Val d'Agri, I also used data from the Eni-Agip oil company seismic network. I computed the VP/VS ratio obtaining a value of 1.83 and I carried out an analysis for the one-dimensional (1D) velocity model that approximates the seismic structure of the study area. After this preliminary analysis, making use of the records obtained in the SeSCAL experiment, I incremented the database by handpicking new arrival times. My final dataset consists of 15,666 P- and 9228 S-arrival times associated to 1047 earthquakes with magnitude ML ≥ 1.5. I computed 162 fault-plane solutions and composite focal mechanisms for closely located events. I investigated stress field orientation inverting focal mechanism belonging to the Lucanian Apennine and the Pollino Range, both areas characterized by more concentrated background seismicity. Moreover, I applied the double difference technique (DD) to improve the earthquake locations. Considering these results and different datasets available in the literature, I carried out a detailed analysis of single sub-areas and of a swarm (November 2008) recorded by SeSCAL array. The relocated seismicity appears more concentrated within the upper crust and it is mostly clustered along the Lucanian Apennine chain. In particular, two well-defined clusters were located in the Potentino and in the Abriola-Pietrapertosa sector (central Lucanian region). Their hypocentral depths are slightly deeper than those observed beneath the chain. I suggest that these two seismic features are representative of the transition from the inner portion of the chain with NE-SW extension to the external margin characterized by dextral strike-slip kinematics. In the easternmost part of the study area, below the Bradano foredeep and the Apulia foreland, the seismicity is generally deeper and more scattered and is associated to the Murge uplift and to the small structures present in the area. I also observed a small structure NE-SW oriented in the Abriola-Pietrapertosa area (activated with a swarm in November 2008) that could be considered to act as a barrier to the propagation of a potential rupture of an active NW-SE striking faults system. Focal mechanisms computed in this study are in large part normal and strike-slip solutions and their tensional axes (T-axes) have a generalized NE-SW orientation. Thanks to denser coverage of seismic stations and the detailed analysis, this study is a further contribution to the comprehension of the seismogenesis and state of stress of the Southern Apennines region, giving important contributions to seismotectonic zoning and seismic hazard assessment.
Towards model driven software development for Arduino platforms: a DSL and automatic code generation
Resumo:
La tesi ha lo scopo di esplorare la produzione di sistemi software per Embedded Systems mediante l'utilizzo di tecniche relative al mondo del Model Driven Software Development. La fase più importante dello sviluppo sarà la definizione di un Meta-Modello che caratterizza i concetti fondamentali relativi agli embedded systems. Tale modello cercherà di astrarre dalla particolare piattaforma utilizzata ed individuare quali astrazioni caratterizzano il mondo degli embedded systems in generale. Tale meta-modello sarà quindi di tipo platform-independent. Per la generazione automatica di codice è stata adottata una piattaforma di riferimento, cioè Arduino. Arduino è un sistema embedded che si sta sempre più affermando perché coniuga un buon livello di performance ed un prezzo relativamente basso. Tale piattaforma permette lo sviluppo di sistemi special purpose che utilizzano sensori ed attuatori di vario genere, facilmente connessi ai pin messi a disposizione. Il meta-modello definito è un'istanza del meta-metamodello MOF, definito formalmente dall'organizzazione OMG. Questo permette allo sviluppatore di pensare ad un sistema sotto forma di modello, istanza del meta-modello definito. Un meta-modello può essere considerato anche come la sintassi astratta di un linguaggio, quindi può essere definito da un insieme di regole EBNF. La tecnologia utilizzata per la definizione del meta-modello è stata Xtext: un framework che permette la scrittura di regole EBNF e che genera automaticamente il modello Ecore associato al meta-modello definito. Ecore è l'implementazione di EMOF in ambiente Eclipse. Xtext genera inoltre dei plugin che permettono di avere un editor guidato dalla sintassi, definita nel meta-modello. La generazione automatica di codice è stata realizzata usando il linguaggio Xtend2. Tale linguaggio permette di esplorare l'Abstract Syntax Tree generato dalla traduzione del modello in Ecore e di generare tutti i file di codice necessari. Il codice generato fornisce praticamente tutta la schematic part dell'applicazione, mentre lascia all'application designer lo sviluppo della business logic. Dopo la definizione del meta-modello di un sistema embedded, il livello di astrazione è stato spostato più in alto, andando verso la definizione della parte di meta-modello relativa all'interazione di un sistema embedded con altri sistemi. Ci si è quindi spostati verso un ottica di Sistema, inteso come insieme di sistemi concentrati che interagiscono. Tale difinizione viene fatta dal punto di vista del sistema concentrato di cui si sta definendo il modello. Nella tesi viene inoltre introdotto un caso di studio che, anche se abbastanza semplice, fornisce un esempio ed un tutorial allo sviluppo di applicazioni mediante l'uso del meta-modello. Ci permette inoltre di notare come il compito dell'application designer diventi piuttosto semplice ed immediato, sempre se basato su una buona analisi del problema. I risultati ottenuti sono stati di buona qualità ed il meta-modello viene tradotto in codice che funziona correttamente.
Resumo:
Un percorso di ricerca che interessa la città di New York prevede inevitabilmente nel suo sviluppo un approfondimento sulle diverse tematiche riguardanti in primis la città americana intesa in termini generali e, parallelamente, tutti quegli elementi che sono riconoscibili quali punti focali per l’isola di Manhattan. La lettura delle mappe storiche diventa un elemento fondamentale su cui basare un’analisi relativa alla crescita e al tessuto urbano; una particolare attenzione alle trasformazioni della griglia stradale che impone alla struttura della città un sistema rigido e che contemporaneamente sviluppa elementi di contraddizione al suo interno. E’ necessario quindi indagare il tema della griglia nelle città di fondazione e nelle varianti storiche. Se da un lato si è svolta una lettura storica, dall’altro viene affiancata una lettura critica, che mira principalmente all’analisi delle “crisi della regolarità”, cioè a quei punti in cui la struttura della griglia diviene più fragile o addirittura viene negata dall’assetto della città. Sulla scia delle riflessioni di Mario Gandelsonas sulle città americane, si è voluto a tracciare non solo un percorso analitico, ma anche una ricerca più personale, con il tentativo di indagare la città in relazione dicotomica rispetto alla sua architettura, riflettendo sul modo in cui l’una si interfaccia con l’altra in un rapporto di antagonismo che è andato crescendo giorno dopo giorno. Un rapporto di antagonismo, ma anche di inevitabile collaborazione tra le parti in un quadro che non è mai fisso e che coinvolge due elementi in continuo mutamento, genera un sistema di necessarie articolazioni, che non si presentano mai come una situazione stabile tra i due elementi, ma come una relazione tra due prassi che cambiano nel tempo. I temi progettuali chiave non sono frutto di una decisione preventiva, ma, viceversa, emergono come risultato della prima parte di questo lavoro. La ricerca è stata così indirizzata verso alcune questioni che sono apparse più rilevanti anche in ai fini progettuali: l’infrastruttura, approfondita mediante il caso studio del Port Authority Bus Terminal di Pier Luigi Nervi; l’edilizia sociale, che si presenta sempre con tipologie anomale rispetto al blocco newyorkese, come nel caso di Stuyvesant Town; ed i margini della città, ex zone industriali, oggi al centro del dibattito sulla riqualificazione di aree a forte potenziale naturalistico. I punti qui esaminati evidenziano e sintetizzano le problematiche del Waste Transfer previsto dall’amministrazione newyorkese nell’area sud di Manhattan.
Resumo:
Il lavoro svolto nel corso del mio dottorato ha avuto per oggetto lo studio dell’ inibizione della glicolisi aerobia (il principale processo metabolico utilizzato dalle cellule neoplastiche per produrre energia) ottenuta mediante il blocco dell’enzima lattato deidrogenasi (LDH). La mia attività si è concentrata sulla possibilità di utilizzare questo approccio allo scopo di migliorare l’efficacia della terapia antitumorale, valutandone gli effetti su colture di carcinoma epatocellulare umano Inizialmente, per valutare gli effetti della inibizione della LDH, è stato usato l’acido ossamico ( OXA). Questo composto è l’unico inibitore noto specifico per LDH ; è una molecola non tossica in vivo, ma attiva a concentrazioni troppo elevate per consentirne un uso terapeutico. Un importante risultato ottenuto è stata la dimostrazione che l’ inibizione della LDH ottenuta con OXA non è solo in grado di innescare una risposta di morte nelle cellule trattate, ma, associata alla somministrazione di sorafenib, aumenta fortemente l’efficacia di questo farmaco, determinando un effetto di sinergismo. Questo forte effetto di potenziamento dell’azione del farmaco è stato spiegato con la dimostrazione che il sorafenib ha la capacità di inibire il consumo di ossigeno delle cellule trattate, rendendole più dipendenti dalla glicolisi. Grazie alla collaborazione con il Dipartimento di Scienze Farmaceutiche il nostro gruppo di ricerca è arrivato alla identificazione di un composto (galloflavina) che inibisce la LDH con una efficienza molto maggiore di OXA. I risultati preliminari ottenuti sulle cellule di epatocarcinoma suggeriscono che la galloflavina potrebbe essere un composto promettente nel campo degli inibitori metabolici tumorali e inducono a una sua valutazione più approfondita come potenziale farmaco antineoplastico.
Resumo:
La studio dell’efficienza di un indice azionario ha accresciuto la propria importanza nell’industria dell’asset management a seguito della diffusione dell’utilizzo di benchmark e investimenti indicizzati. Il presente lavoro valuta il livello di efficienza dei principali indici del mercato azionario statunitense, dell’Area Euro e italiano. Lo studio empirico ricorre a quattro misure di efficienza: il GRS, un test small-sample multivariato fondato sul CAPM; il test large sample di Wald, implementato tramite una simulazione bootstrap; il test GMM, che è stato applicato in una cornice non-gaussiana attraverso una simulazione block bootstrap; la misura di efficienza relativa di Kandel e Stambaugh. I risultati empirici forniscono una prova evidente della superiore efficienza degli indici equiponderati. Questa conclusione è interpretata sulla base della letteratura scientifica esistente, analizzando le diverse cause di ordine teorico ed empirico che sono state proposte.
Resumo:
Sono stati studiati gli effetti tossici dell’esposizione cronica a cobalto e cromo. In passato, questa tossicità, che colpiva lavoratori esposti per ragioni occupazionali, è stata un problema molto sentito. Tuttavia, recenti pubblicazioni hanno descritto una specifica tossicità mediata da elevati livelli di cobalto e cromo, anche in pazienti portatori di protesi metalliche, quali gli impianti d’anca. Anche se sintomi clinici tra cui, cecità, sordità e neuropatia periferica, suggeriscono uno specifico neurotropismo, ancora poco è conosciuto delle basi neuropatologiche di questo processo ed oltretutto non ne è ancora stata apportata un’evidenza sperimentale. In questo progetto di ricerca, quindi, si è voluto approfondire il meccanismo patogenetico da cui scaturiscono tali sintomi neurologici, utilizzando come modello sperimentale il coniglio. Conigli New Zealand White sono stati trattati con dosi endovenose ripetute di cobalto e cromo, inoculati singolarmente od in associazione tra loro. Nessuna evidente alterazione clinica o patologica è stata associata alla somministrazione di solo cromo, nonostante gli elevati livelli in sangue e tessuti, mentre i trattati con cobalto-cromo o solo cobalto hanno mostrato segni clinici gravanti sul sistema vestibolo-cocleare; il cobalto, quindi, è stato identificato come il maggiore elemento scatenante neurotossicità. Inoltre all’esame istopatologico gli animali hanno mostrato severa deplezione delle cellule gangliari retiniche e cocleari, assieme a danno al nervo ottico e perdita di cellule sensitive capellute dell’orecchio. È risultato infine evidente che la gravità delle alterazioni è stata correlata al dosaggio ed al tempo di esposizione; dati questi che confermano, quindi, le precedenti osservazioni fatte su pazienti umani esposti a rilascio abnorme di cobalto e cromo da usura di protesi d’anca. È stato ipotizzato che il cobalto agisca sui mitocondri provocando l’incremento di produzione di specie reattive dell’ossigeno e il rilascio di fattori proapoptotici, causando sulle cellule neuronali un danno proporzionale al loro fabbisogno energetico e grado di mielinizzazione.
Resumo:
Il campo d’interesse della ricerca è stato l’attuale processo di ricentralizzazione del Social Housing nelle periferie urbane in una parte del contesto internazionale, che sembra stia portando le città a ricrearsi e ripensarsi grazie alla presa di coscienza delle differenze esistenti, rispetto al passato, nei nuovi processi di trasformazione nei quali la città è intesa sia come spazio costruito ma anche sociale. In virtù di quest’ultimi due aspetti complementari della città, oggi, il ruolo della periferia contemporanea sembra essere diversamente interpretato, così come gli interventi di riqualificazione di tipo assistenziale - migliorativo tenderebbero a trasformarne i suoi caratteri alla ricerca del “modello di città”. L’interesse alla tematica è inoltre scaturito dalla constatazione che alla base della crisi dei modelli d’intervento pubblico starebbero sia l’insostenibilità economica ma soprattutto l’errata lettura dei bisogni delle famiglie nella loro specificità e diversità e che in tal senso l’eventuale partecipazione della cittadinanza costituirebbe effettivamente una proposta valida, anche per risolvere la crescente domanda abitativa che si pone a livello mondiale. L’obiettivo della ricerca è stato quello d’analizzare, nel contesto internazionale del Social Housing, le caratteristiche di partecipazione e sussidiarietà che connotano particolarmente gli interventi di riqualificazione destinati a famiglie economicamente carenti, nello specifico analizzando i metodi e gli strumenti atti alla comunicazione partecipativa del progetto in aree urbane periferiche italiane e brasiliane. Nella prima e seconda fase della ricerca è stato svolto, rispettivamente, un lavoro di analisi bibliografica sul tema dell’emergenza casa e sulle nuove politiche abitative di sviluppo urbano ed uno specifico sulla tematica della riqualificazione partecipata del Social Housing in aree della periferia urbana, infine nella terza fase sono stati analizzati i casi di studio prescelti dando rilievo all’analisi delle caratteristiche e requisiti prestazionali delle tecniche partecipative di rappresentazione - comunicazione, più idonee ad influenzare positivamente il suddetto processo.
Resumo:
La ricerca oggetto della tesi riguarda la disamina delle esperienze comunitarie e nazionali in Europa in materia di elusione IVA ed antielusione IVA, al fine di esaminare le utilizzabili esperienze in materia per la Cina che dovrebbe iniziare a prendere le giuste azioni per fronteggiare il problema della crescente diffusione dei fenomeni dell’elusione IVA, in particolare nel contesto della riforma perdurante dell’IVA cinese verso il modello moderno. A questo fine, prima la tesi ha analizzato dettagliatamente le seguenti principali questioni sulla base delle esperienze comunitarie e nazionali dei determinati Stati Membri dell’UE: la definizione dell’elusione fiscale generale (a tale proposito, più rilevanti le differenze tra elusione fiscale ed altri relativi concetti come risparmio d’imposta, evasione fiscale e simulazione e la relazione intrinseca tra elusione fiscale ed altri relativi concetti come frode alla legge ed abuso del diritto), la definizione dell’elusione IVA (a tale proposito, più rilevanti gli aspetti di particolare interesse ai fini della definizione dell’elusione IVA), i principi e metodologie dell’elusione IVA, le applicazioni delle varie misure antielusive rivolte all’elusione IVA nell’ordinamento comunitario e negli ordinamenti interni degli alcuni principali Stati Membri dell’UE (a tale proposito, più rilevanti l’applicazone del principio Halifax, quale norma antielusiva generale basata sul principio di divieto dell’abuso del diritto, e la considerazione delle altre soluzioni antielusive applicabili nell’IVA, comprese correzioni normative e clausole antielusive specifiche), gli effetti dell’antielusione IVA e i limiti entro cui l’autorità impositiva può esercitare l’antielusione IVA per la tutela degli interessi legittimi dei soggetti passivi come certezza giuridica ed autonomia contrattuale. Poi, la tesi ha avanzato le proposte relative al perfezionamento delle soluzioni antielusive IVA nell’ordinamento tributario cinese, dopo presentati i principali regimi attuali dell’IVA cinese e analizzate le situazioni attuali realtive all’elusione IVA e all’antielusione IVA nel sistema fiscale cinese.
Resumo:
Ammettere l'eterogeneità di Villa Lugano e Villa Riachuelo significa riconoscere nella totalità di questa zona una serie di realtà differenti, ciascuna delle quali a suo modo ne definisce l'identità. Si possono riconoscere gli interventi di edilizia popolare del secondo dopoguerra, come il Barrio General Belgrano per citare il più vistoso, un tessuto omogeneo di residenze di massimo cinque piani, il grande parco dell'autodromo e quello del campo da golf, la ferrovia in disuso, l'autostrada che taglia in due il quartiere e separa nettamente la parte "civile" da quella considerata illegale: le villas miserias. Rispettare le diverse realtà che convivono all'interno del quartiere è un primo passo per capire la complessità del territorio su cui si opera, e capire come riuscire a farle comunicare e relazionarsi in maniera più diretta ed efficace può essere un modo per risolvere quelle situazioni di isolamento sociale ed economico che si stanno subendo in entrambe le parti. L'idea progettuale è quella di rimediare a questa frattura e di ridare spazio vitale al denso tessuto urbano connettendo con una fascia verde il parco fino a Ciudad Oculta, situata alla parte opposta del barrio.
Resumo:
Il territorio italiano presenta una grandissima ricchezza nel campo dei Beni Culturali, sia mobili che immobili; si tratta di un patrimonio di grande importanza che va gestito e tutelato nel migliore dei modi e con strumenti adeguati, anche in relazione ai problemi ad esso legati in termini di manutenzione e di salvaguardia dai fattori di rischio a cui può essere esposto. Per una buona conoscenza del Patrimonio Culturale, è fondamentale un’acquisizione preliminare di informazioni condotte in modo sistematico e unitario, che siano diffuse ed organiche, ma anche utili ad una valutazione preventiva e ad una successiva programmazione degli interventi di restauro di tipo conservativo. In questo ambito, l'impiego delle tecniche e tecnologie geomatiche nel campo dei Beni Culturali, può fornire un valido contributo, che va dalla catalogazione e documentazione del bene culturale al suo controllo e monitoraggio. Oggigiorno il crescente sviluppo di nuove tecnologie digitali, accompagnato dai notevoli passi avanti compiuti dalle discipline della geomatica (in primo luogo topografiche e fotogrammetriche), rende possibile una efficace integrazione tra varie tecniche, favorita anche dalla diffusione di soluzioni per l’interscambio dati e per la comunicazione tra differenti dispositivi. Lo studio oggetto della presente tesi si propone, di approfondire gli aspetti legati all’uso delle tecniche e tecnologie della Geomatica, per mettere in risalto le condizioni di un bene ed il suo stato di degrado. Per la gestione e la salvaguardia di un bene culturale , si presenta il SIT Carta del Rischio che evidenzia le pericolosità legate al patrimonio, e come esse sommate alla vulnerabilità di un singolo bene, contribuiscano all’individuazione del grado di rischio. di approfondire gli aspetti legati all’uso delle tecniche e tecnologie delle Geomatica, per mettere in risalto le condizioni di un bene ed il suo stato di degrado.
Resumo:
Lo studio si occupa del tema della nullità dell’atto amministrativo nell’ambito della attività negoziale della p.a.. L’obiettivo è quello di analizzare gli effetti sul contratto di appalto, a seguito dell’annullamento degli atti di gara, alla luce dei recenti interventi legislativi e giurisprudenziali. L’indagine investe anche questioni di giurisdizione e di legittimazione ad agire La tesi è articolata in tre capitoli. Nel primo capitolo “Annullamento della aggiudicazione e sorte del contratto nell’iter ricostruttivo dell’istituto si analizzano le conseguenze dell’annullamento degli atti di gara sul contratto e si riflette sui profili del riparto di giurisdizione tra GA e GO e della qualificazione dei vizi. Si analizza, inoltre, il rapporto tra autotutela, legittimo affidamento e responsabilità della p.a., alla luce della funzione dei principi generali dell’ordinamento, costituendo, questi, sia limite, sia contenuto della funzione amministrativa espressa come potere di autotutela e delineando essi lo spazio entro cui il giudice deve agire. Il secondo capitolo analizza le “Prospettive di sviluppo recenti ed interventi chiarificatori”, alla luce del recente decreto legislativo n. 53/2010, della cd. Direttiva ricorsi (n. 2007/66/CE) e delle norme relative al nuovo processo amministrativo, recentemente introdotte, (artt. da 122 a 125 del d. lgs. n. 104/2010) concentra l’attenzione sul profilo della individuazione dei parametri che il giudice può utilizzare per statuire della sorte del contratto. Nel terzo capitolo “Diritto pubblico e Diritto privato nei contratti della Pubblica Amministrazione”. si focalizza l’attenzione sul rapporto tra istituti del diritto amministrativo istituti del diritto privato: quanto più l’attività negoziale risulta attratta nella sfera del potere pubblicistico, tanto più il contratto non godrà di autonomia rispetto al provvedimento. La reciproca dipendenza implica che la sorte dell’atto incida irrimediabilmente anche sul contratto. Nell’ultimo paragrafo dell’ultimo capitolo si propongono alcune conclusioni.
Resumo:
Le ragioni della delocalizzazione sono molteplici e di differente natura. Si delocalizza, in primo luogo, per ragioni di stampo economico, finanziario eccetera, ma questa spinta naturale alla delocalizzazione è controbilanciata, sul piano strettamente tributario, dall’esigenza di preservare il gettito e da quella di controllare la genuinità della delocalizzazione medesima. E’ dunque sul rapporto tra “spinte delocalizzative” dell’impresa, da un lato, ed esigenze “conservative” del gettito pubblico, dall’altro, che si intende incentrare il presente lavoro. Ciò alla luce del fatto che gli strumenti messi in campo dallo Stato al fine di contrastare la delocalizzazione (più o meno) artificiosa delle attività economiche devono fare i conti con i principi comunitari introdotti con il Trattato di Roma e tratteggiati negli anni dalla giurisprudenza della Corte di Giustizia. In quest’ottica, la disciplina delle CFC costituisce un ottimo punto di partenza per guardare ai fenomeni di produzione transnazionale della ricchezza e agli schemi di ordine normativo preposti alla tassazione di codesta ricchezza. Ed infatti, le norme sulle CFC non fanno altro che omogeneizzare un sistema che, altrimenti, sarebbe lasciato alla libera iniziativa degli uffici fiscali. Tale “normalizzazione”, peraltro, giustifica le esigenze di apertura che sono incanalate nella disciplina degli interpelli disapplicativi. Con specifico riferimento alla normativa CFC, assumono particolare rilievo la libertà di stabilimento ed il principio di proporzionalità anche nella prospettiva del divieto di abuso del diritto. L’analisi dunque verterà sulla normativa CFC italiana con l’intento di comprendere se codesta normativa, nelle sue diverse sfaccettature, possa determinare situazioni di contrasto con i principi comunitari. Ciò anche alla luce delle recenti modifiche introdotte dal legislatore con il d.l. 78/2009 in un quadro normativo sempre più orientato a combattere le delocalizzazioni meramente fittizie.
Resumo:
L’obiettivo del presente progetto di ricerca era determinare se l’utilizzo non clinico del simulatore d’alba (un dispositivo che emette luce in graduale aumento prima del risveglio), basato su specifiche conoscenze cronobiologiche, potesse ridurre alcune delle conseguenze del social jetlag, in studenti di scuola secondaria di secondo grado. A tal fine, sono stati valutati gli effetti del simulatore d’alba su tono dell’umore (valutato soggettivamente tramite la Global and Vigor Affect Scale-GVA), livelli di attivazione (valutati soggettivamente tramite la GVA), qualità/quantità di sonno (valutate oggettivamente e soggettivamente tramite attigrafia e Mini Sleep Questionnaire-MSQ), architettura del sonno (valutata oggettivamente tramite Zeo®) ed efficienza dei tre network attentivi (alerting, orienting ed executive), valutata oggettivamente tramite l’Attention Network Test (ANT). In totale, hanno preso parte alla ricerca 56 adolescenti (24 femmine e 32 maschi), frequentanti due istituti di scuola secondaria di secondo grado nella città di Cesena, la cui età media era di 17.68 anni (range d’età 15-20 anni). Ad ogni studente è stata richiesta una partecipazione di 5 settimane consecutive ed il disegno di ricerca prevedeva 3 condizioni sperimentali: baseline, simulatore d’alba e controllo. All’MSQ, in seguito all’utilizzo del simulatore d’alba, sono state osservate una minore percezione di sonnolenza diurna, una frequenza inferiore di risvegli notturni ed una riduzione del numero di partecipanti che presentavano una cattiva qualità della veglia. All’ANT, è stato documentato un significativo miglioramento dell’efficienza del network attentivo dell’alerting, successivo all’impiego del simulatore d’alba, dovuto ad una maggiore reattività dei partecipanti in seguito alla comparsa del double cue, che anticipava la presentazione del target (freccia centrale di cui i partecipanti dovevano giudicare la direzione). Tali risultati convergono nell’evidenziare la capacità del simulatore d’alba di esercitare un effetto attivante/stimolante, mostrando dunque come esso possa essere considerato uno strumento potenzialmente utilizzabile quale contromisura al social jetlag in adolescenza.
Resumo:
L’obiettivo di questo lavoro di tesi è di ottenere un’analisi climatica giornaliera ad alta risoluzione della precipitazione sul territorio del nord Italia realizzata con tecniche di controllo statistico, di analisi e di strumenti di descrizione dei risultati presentati nella recente letteratura. A tal fine, sono stati utilizzati i dati dell’Archivio ARCIS. In seguito alle fasi di controllo qualità, omogeneità e sincronicità i dati sono stati utilizzati per realizzare un’analisi giornaliera su grigliato regolare a 10 km di risoluzione utile alla rappresentazione della variabilità spazio-temporale della precipitazione sul Nord Italia per il periodo 1961-2005. I risultati di tale analisi mettono in evidenza dei valori medi di precipitazione annuale abbastanza intensi sulla parte centrale dell’arco Alpino, con massimi (oltre 2000 mm) sull’estremità orientale e sull’Appennino Ligure. Valori minimi (500 – 600 mm) sono osservati lungo le aree prospicienti il fiume Po, in Val d’Aosta ed in Alto Adige. La corrispondente analisi del trend temporale indica la presenza di lievi cali statisticamente significativi solo in aree limitate del territorio. In coerenza con questi risultati, la variazione nel tempo della precipitazione annuale mediata su tutto il territorio mette in evidenza un’intensa variabilità decennale, ma solo una lieve flessione lineare sull’intero periodo. Il numero annuo di giorni piovosi ed il 90° percentile della precipitazione giornaliera presentano invece trend lineari un po’ più pronunciati. In particolare, sul periodo considerato si nota un calo del numero di giorni piovosi su gran parte del territorio e solo su alcune aree del territorio un aumento dell’intensità del 90° percentile, sia a scala annuale che stagionale. Nell’ultima parte di questo lavoro è stato realizzato uno studio della relazione fra la forzante climatica e l’evoluzione della morfologia dell’Appennino Emiliano-Romagnolo. I risultati mostrano che a parità di quota, di pendenza e di litologia, la franosità è influenzata dalle precipitazioni.