135 resultados para Categorie, limiti, colimiti.
Resumo:
Il presente elaborato, è composto di due sezioni in cui sorge una “controversia” che riguarda la categoria delle “scriminanti”: nella prima sezione, la tipologia delle scriminanti viene analizzata all'interno delle cause di non punibilità, lato sensu intese. In particolare, vengono esaminati due profili, su cui dottrina e giurisprudenza hanno offerto catalogazioni difformi: l'art. 68 comma I della Costituzione, sull'insindacabilità del parlamentare per le opinioni espresse ed i voti dati nell'esercizio delle proprie funzioni, e l'art. 598 del codice penale sull'immunità giudiziale delle parti e dei loro patrocinatori per gli scritti presentati ed i discorsi pronunciati in sede giudiziale. Dalle diverse opzioni ermeneutiche prescelte, discenderanno pertanto anche differenti risvolti sul piano applicativo: Il capitolo I, tratta per l'appunto della differente disciplina tra cause di giustificazione, cause di non punibilità in senso stretto, e scusanti. La seconda sezione, attiene alla diversa problematica della scriminante non codificata nell'attività sportiva, laddove per limiti intrinseci alle disposizioni normative, le scriminanti codificate, in particolare gli articoli 50 e 51 del codice penale, si rivelano insufficienti alla descrizione del fenomeno dell'attività sportiva violenta, od eventualmente violenta. Questa seconda sezione, necessitava di un'apposita analisi, contenuta nel capitolo introduttivo alla predetta, sul tema della possibile configurabilità nell'ordinamento italiano dell'analogia in bonam partem (all'interno della quale, rientrano per l'appunto le scriminanti), principale obiezione rispetto all'ammissibilità di scriminante altrimenti definite tacite, non codificate o atipiche.
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
Il presente lavoro di ricerca ha per oggetto il tema della diffusione urbana. Dopo una breve ricostruzione delle varie definizioni presenti in letteratura sul fenomeno - sia qualitative che quantitative - e una descrizione dei limiti di volta in volta presenti all’interno di tali definizioni, si procede con la descrizione dell’evoluzione storica dello sprawl urbano all’interno del mondo occidentale. Una volta definito e contestualizzato storicamente l’oggetto della ricerca, ne vengono analizzate le cause e il complesso sistema di conseguenze che tale fenomeno urbano porta con sé. Successivamente vengono presentate le principali teorie sociologiche attraverso le quali può essere interpretato il fenomeno dello sprawl urbano e vengono descritte le varie forme con cui si può esprimere lo sprawl urbano: non esiste infatti uniformità tra i vari paesaggi suburbani, ma una grande diversità interna alle varie forme in cui si manifesta il fenomeno della dispersione insediativa. Se quanto finora esaminato, soprattutto a livello bibliografico, è riconducibile alla letteratura nordamericana, arrivati a questo punto del lavoro, l’attenzione viene spostata sul continente europeo, prendendo in esame l’emergere del periurbano all’interno del nostro continente e tentando di descrivere sia le contiguità che le differenze tra il fenomeno dell’urban sprawl e quello del periurbano. Infine, adottando un procedimento “ad imbuto”, il lavoro si sofferma sulla situazione del nostro paese in merito alla tematica in questione. L’ultima sezione della ricerca prevede una parte di lavoro empirico. Se, come è emerso nel quadro teorico, molti sono gli elementi che caratterizzano il tema dello sprawl urbano e del periurbano, si è voluto andare a verificare se, ed eventualmente quali, degli elementi descritti, sono presenti in un’area ben delimitata del territorio bolognese, per cercare di capire se si possa parlare di un “periurbano bolognese” e quali caratteristiche esso presenti.
Resumo:
La legge n. 146 del 1990 ha istituito la Commissione di garanzia per l’attuazione della legge sullo sciopero nei servizi pubblici essenziali, un’authority deputata al controllo dell’effettivo bilanciamento del diritto di sciopero con gli altri diritti della persona di rango costituzionale nel caso dei servizi pubblici essenziali. Ad essa spettano alcuni poteri tra di loro eterogenei. Accanto a poteri propulsivi e sanzionatori, essa possiede poteri di tipo normativo. La legge prevede, infatti, che le prestazioni indispensabili e le altre misure necessarie al contemperamento siano determinate da accordi tra il datore di lavoro e le associazioni sindacali, mentre per il lavoro autonomo da codici di autoregolamentazione forniti da ognuna delle categorie interessate. Gli accordi e i codici di autoregolamentazione devono essere, comunque, sottoposti al vaglio della Commissione di garanzia la quale in ultimo stabilisce se essi siano idonei a realizzare il bilanciamento dei diritti in questione. Quando i soggetti indicati dalla legge non provvedano alla redazione dei suddetti atti, la Commissione interviene con l’emanazione di una provvisoria regolamentazione, la quale possiede natura di regolamento, giacchè partecipa dei caratteri della generalità ed astrattezza propri delle norme di legge. In effetti, anche altre authorities possiedono un potere normativo, che si sostanzia alle volte in un regolamento indipendente, altre in un regolamento simile ai regolamenti delegati ed altre al regolamento esecutivo. Poiché la legge n. 146 del 1990 prevede quali siano gli istituti idonei a realizzare il bilanciamento (preavviso, proclamazione scritta, procedure di raffreddamento e conciliazione, intervallo minimo, misure indicative delle prestazioni indispensabili), la provvisoria regolamentazione possiede i caratteri del regolamento esecutivo.
Resumo:
Il problema dell'antibiotico-resistenza è un problema di sanità pubblica per affrontare il quale è necessario un sistema di sorveglianza basato sulla raccolta e l'analisi dei dati epidemiologici di laboratorio. Il progetto di dottorato è consistito nello sviluppo di una applicazione web per la gestione di tali dati di antibiotico sensibilità di isolati clinici utilizzabile a livello di ospedale. Si è creata una piattaforma web associata a un database relazionale per avere un’applicazione dinamica che potesse essere aggiornata facilmente inserendo nuovi dati senza dover manualmente modificare le pagine HTML che compongono l’applicazione stessa. E’ stato utilizzato il database open-source MySQL in quanto presenta numerosi vantaggi: estremamente stabile, elevate prestazioni, supportato da una grande comunità online ed inoltre gratuito. Il contenuto dinamico dell’applicazione web deve essere generato da un linguaggio di programmazione tipo “scripting” che automatizzi operazioni di inserimento, modifica, cancellazione, visualizzazione di larghe quantità di dati. E’ stato scelto il PHP, linguaggio open-source sviluppato appositamente per la realizzazione di pagine web dinamiche, perfettamente utilizzabile con il database MySQL. E’ stata definita l’architettura del database creando le tabelle contenenti i dati e le relazioni tra di esse: le anagrafiche, i dati relativi ai campioni, microrganismi isolati e agli antibiogrammi con le categorie interpretative relative al dato antibiotico. Definite tabelle e relazioni del database è stato scritto il codice associato alle funzioni principali: inserimento manuale di antibiogrammi, importazione di antibiogrammi multipli provenienti da file esportati da strumenti automatizzati, modifica/eliminazione degli antibiogrammi precedenti inseriti nel sistema, analisi dei dati presenti nel database con tendenze e andamenti relativi alla prevalenza di specie microbiche e alla chemioresistenza degli stessi, corredate da grafici. Lo sviluppo ha incluso continui test delle funzioni via via implementate usando reali dati clinici e sono stati introdotti appositi controlli e l’introduzione di una semplice e pulita veste grafica.
Resumo:
La ricerca è strutturata in due sezioni: nella prima, dopo una premessa storica sul suicidio ed una lettura dei relativi dati statistici italiani integrata dall’analisi delle principali teorie sociologiche e dei principali aspetti psicopatologici e di psicologia clinica, vengono esaminati i risultati forniti da numerosi studi scientifici sul tema complementare delle morti equivoche, con particolare riferimento alle categorie a rischio rappresentate da anziani, carcerati, piloti di aerei, soggetti dediti a pratiche di asfissia autoerotica o roulette russa, istigatori delle forze di polizia e suicida stradali. Successivamente sono esaminati gli aspetti investigativi e medico-legali in tema di suicidi e morti equivoche con particolare riferimento alla tecnica dell’autopsia psicologica analizzandone le origini ed evoluzioni, il suo ambito di utilizzo ed i relativi aspetti metodologici. Nella seconda sezione del lavoro il tema dei suicidi e delle morti equivoche viene approfondito grazie all’apporto di professionisti di discipline diverse esperti in materia di autopsia psicologica ed indagini giudiziarie. A questi è stata presentata, con l’utilizzo della tecnica qualitativa “Dephi, una iniziale ipotesi di protocollo di autopsia psicologica, con le relative modalità applicative, al fine di procedere ad una sua revisione ed adattamento alle esigenze operative italiane grazie alle specifiche esperienze professionali e multidisciplinari maturate dagli esperti. I dati raccolti hanno permesso di giungere alla formulazione di un protocollo di autopsia psicologica, basato sulla elaborazione di domande generali, specifiche e conclusive, a risposta aperta, che possono esser formulate, secondo le modalità previste, alle persone affettivamente significative per la vittima nei confronti della quale si intende procedere con tale strumento investigativo.
Resumo:
La trattazione cerca di delineare i confini teorici ed applicativi dell’istituto dell’interpretazione autentica, nella chiara consapevolezza che dietro tale tematica si celi il più complesso problema di una corretta delimitazione tra attività di legis-latio e attività di legis-executio. Il fenomeno delle leggi interpretative costituisce infatti nodo nevralgico e punto di intersezione di tre ambiti materiali distinti, ossia la teoria dell’interpretazione, la teoria delle fonti del diritto e la dottrina di matrice liberale della separazione dei poteri. All’interno del nostro ordinamento, nell’epoca più recente, si è assistito ad un aumento esponenziale di interventi legislativi interpretativi che, allo stato attuale, sono utilizzati per lo più come strumenti di legislazione ordinaria. Sotto questo profilo, il sempre più frequente ricorso alla fonte interpretativa può essere inquadrato nel più complesso fenomeno della “crisi della legge” i cui tradizionali requisiti di generalità, astrattezza ed irretroattività sono stati progressivamente abbandonati dal legislatore parallelamente con l’affermarsi dello Stato costituzionale. L’abuso dello strumento interpretativo da parte del legislatore, gravemente lesivo delle posizioni giuridiche soggettive, non è stato finora efficacemente contrastato all’interno dell’ordinamento nonostante l’elaborazione da parte della Corte costituzionale di una serie di limiti e requisiti di legittimità dell’esegesi legislativa. In tale prospettiva, diventano quindi di rilevanza fondamentale la ricerca e l’esame di strategie e rimedi, giurisdizionali ed istituzionali, tali da arginare l’“onnipotenza” del legislatore interprete. A seguito dell’analisi svolta, è maturata la consapevolezza delle potenzialità insite nella valorizzazione della giurisprudenza della Corte Edu, maggiormente incline a sanzionare l’abuso delle leggi interpretative.
Resumo:
L’enzima IDO interviene nella via di degradazione del triptofano, essenziale per la vita cellulare; l’iperespressione di IDO favorisce la creazione di un microambiente immunotollerante. Nelle LAM IDO è funzionalmente attivo nelle cellule blastiche e determina l’acquisizione di un fenotipo regolatorio da parte delle cellule T alloreattive; l’espressione della proteina aumenta in modo consensuale con l’evoluzione clinica della patologia. Scopo della Tesi è indagare l’esistenza di una correlazione tra l’iperespressione di IDO da parte delle cellule leucemiche, le caratteristiche di rischio alla diagnosi e l’outcome dei pazienti. Sono stati esaminati 45 pazienti adulti affetti da LAM afferiti all’Istituto di Ematologia di Bologna. I pazienti sono stati stratificati a seconda di: età di insorgenza della leucemia, secondarietà a Mielodisplasia o radio chemioterapia, iperleucocitosi, citogenetica, biologia molecolare (sono state valutate le alterazioni a carico dei geni FLT3 ed NPM). I pazienti sono stati analizzati per l’espressione del gene IDO mediante RT-PCR, seguita da Western Blot, allo scopo di stabilire la presenza di una proteina attiva; successivamente si è proceduto a verificare l’esistenza di una correlazione tra l’espressione di IDO e le caratteristiche di rischio alla diagnosi per identificare una relazione tra l’espressione del gene ed un subset di pazienti a prognosi favorevole o sfavorevole. Dei 45 pazienti adulti affetti da LAM il 28,9% è risultato negativo per l’espressione di IDO, mentre il rimanente 71,1% è risultato positivo ed è stato suddiviso in tre ulteriori categorie, in base ai livelli di espressione. I dati non sembrano al momento suggerire l’esistenza di una correlazione tra l’espressione di IDO e le caratteristiche di rischio alla diagnosi. Nel gruppo di pazienti ad elevata espressione di IDO si riscontra un rate di resistenza alla chemioterapia di induzione più elevato, con una quota di pazienti resistenti pari al 71,4%, contro il 23,1% nel gruppo di pazienti IDO-negativi.
Resumo:
L’approccio innovativo di questa tesi alla pianificazione ciclabile consiste nell’integrare le linee guida per la redazione di un biciplan con aspetti, metodologie e strumenti nuovi, per rendere più efficace la programmazione di interventi. I limiti del biciplan risiedono nella fase di pianificazione e di monitoraggio, quindi, nel 1° capitolo, vengono esaminate le differenze esistenti tra la normativa americana (AASHTO) e quella italiana (D.P.R. 557/99). Nel 2° capitolo vengono analizzati gli indicatori usati nella fase di monitoraggio e la loro evoluzione fino alla definizione degli attuali indici per la determinazione del LOS delle infrastrutture ciclabili: BLOS e BCI. L’analisi è integrata con le nuove applicazioni di questi indici e con lo studio del LOS de HCM 2010. BCI e BISI sono stati applicati alla rete di Bologna per risolvere problemi di pianificazione e per capire se esistessero problemi di trasferibilità. Gli indici analizzati prendono in considerazione solo il lato offerta del sistema di trasporto ciclabile; manca un giudizio sui flussi, per verificare l’efficacia delle policy. Perciò il 3° capitolo è dedicato alla metodologia sul monitoraggio dei flussi, mediante l’utilizzo di comuni traffic counter per le rilevazioni dei flussi veicolari. Dal monitoraggio è possibile ricavare informazioni sul numero di passaggi, periodi di punta, esistenza di percorsi preferiti, influenza delle condizioni climatiche, utili ai progettisti; si possono creare serie storiche di dati per controllare l’evoluzione della mobilità ciclabile e determinare l’esistenza di criticità dell’infrastruttura. L’efficacia della pianificazione ciclabile è legata al grado di soddisfazione dell’utente e all’appetibilità delle infrastrutture, perciò il progettista deve conoscere degli elementi che influenzano le scelte del ciclista. Nel 4° capitolo sono analizzate le tecniche e gli studi sulle scelte dell’itinerario dei ciclisti, e lo studio pilota fatto a Bologna per definire le variabili che influenzano le scelte dei ciclisti e il loro peso.
Resumo:
Lo studio che la candidata ha elaborato nel progetto del Dottorato di ricerca si inserisce nel complesso percorso di soluzione del problema energetico che coinvolge necessariamente diverse variabili: economiche, tecniche, politiche e sociali L’obiettivo è di esprimere una valutazione in merito alla concreta “convenienza” dello sfruttamento delle risorse rinnovabili. Il percorso scelto è stato quello di analizzare alcuni impianti di sfruttamento, studiare il loro impatto sull’ambiente ed infine metterli a confronto. Questo ha consentito di trovare elementi oggettivi da poter valutare. In particolare la candidata ha approfondito il tema dello sfruttamento delle risorse “biomasse” analizzando nel dettaglio alcuni impianti in essere nel Territorio della Regione Emilia-Romagna: impianti a micro filiera, filiera corta e filiera lunga. Con la collaborazione di Arpa Emilia-Romagna, Centro CISA e dell’Associazione Prof. Ciancabilla, è stata fatta una scelta degli impianti da analizzare: a micro filiera: impianto a cippato di Castel d’Aiano, a filiera corta: impianto a biogas da biomassa agricola “Mengoli” di Castenaso, a filiera lunga: impianto a biomasse solide “Tampieri Energie” di Faenza. Per quanto riguarda la metodologia di studio utilizzata è stato effettuato uno studio di Life Cycle Assesment (LCA) considerando il ciclo di vita degli impianti. Tramite l’utilizzo del software “SimaPro 6.0” si sono ottenuti i risultati relativi alle categorie di impatto degli impianti considerando i metodi “Eco Indicator 99” ed “Edip Umip 96”. Il confronto fra i risultati dell’analisi dei diversi impianti non ha portato a conclusioni di carattere generale, ma ad approfondite valutazioni specifiche per ogni impianto analizzato, considerata la molteplicità delle variabili di ogni realtà, sia per quanto riguarda la dimensione/scala (microfiliera, filiera corta e filiera lunga) che per quanto riguarda le biomasse utilizzate.
Resumo:
Questa dissertazione tratterà l’argomento dello studio di metodi di progettazione e processi tecnologici innovativi per l’industrializzazione in medio-grande serie di componenti strutturali in materiale composito. L’interesse della ricerca verso questo ambito è suscitato dai notevoli vantaggi che l’utilizzo di materiali dall’alto rapporto prestazioni meccaniche/peso danno nella ricerca di elevate prestazioni in applicazioni sportive e diminuzione dei consumi ed emissioni inquinanti in mezzi di trasporto di grande serie. Lo studio di componenti in materiale composito è caratterizzato dalla peculiarità di non poter disgiungere la progettazione della geometria della parte da quella del materiale e del processo, ed in questo senso nella figura del progettista si vanno a riassumere sinergicamente competenze riguardanti i tre ambiti. Lo scopo di questo lavoro è la proposizione di una metodologia di progettazione e produzione di componenti strutturali che permetta l’utilizzazione ottimale della natura fibrosa del materiale composito sia dal punto di vista del trasferimento dei carichi tra diversi componenti, sia dal punto di vista del processo di laminazione che avviene per nastratura automatizzata. Lo studio è volto a mostrare in quali termini tale tecnologia sia potenzialmente in grado di superare i vincoli di forma ed i limiti di efficienza meccanica delle giunzioni tra le parti e di garantire maggiore produttività e costi inferiori rispetti ai diversi metodi di produzione che rappresentano oggi lo stato dell’arte dell’industrializzazione in medio-grande serie. Particolare attenzione verrà posta sull’utilizzo della tecnologia oggetto di studio per la produzione di telai automobilistici.
Resumo:
Questa tesi di dottorato è inserita nell’ambito della convenzione tra ARPA_SIMC (che è l’Ente finanziatore), l’Agenzia Regionale di Protezione Civile ed il Dipartimento di Scienze della Terra e Geologico - Ambientali dell’Ateneo di Bologna. L’obiettivo principale è la determinazione di possibili soglie pluviometriche di innesco per i fenomeni franosi in Emilia Romagna che possano essere utilizzate come strumento di supporto previsionale in sala operativa di Protezione Civile. In un contesto geologico così complesso, un approccio empirico tradizionale non è sufficiente per discriminare in modo univoco tra eventi meteo innescanti e non, ed in generale la distribuzione dei dati appare troppo dispersa per poter tracciare una soglia statisticamente significativa. È stato quindi deciso di applicare il rigoroso approccio statistico Bayesiano, innovativo poiché calcola la probabilità di frana dato un certo evento di pioggia (P(A|B)) , considerando non solo le precipitazioni innescanti frane (quindi la probabilità condizionata di avere un certo evento di precipitazione data l’occorrenza di frana, P(B|A)), ma anche le precipitazioni non innescanti (quindi la probabilità a priori di un evento di pioggia, P(A)). L’approccio Bayesiano è stato applicato all’intervallo temporale compreso tra il 1939 ed il 2009. Le isolinee di probabilità ottenute minimizzano i falsi allarmi e sono facilmente implementabili in un sistema di allertamento regionale, ma possono presentare limiti previsionali per fenomeni non rappresentati nel dataset storico o che avvengono in condizioni anomale. Ne sono esempio le frane superficiali con evoluzione in debris flows, estremamente rare negli ultimi 70 anni, ma con frequenza recentemente in aumento. Si è cercato di affrontare questo problema testando la variabilità previsionale di alcuni modelli fisicamente basati appositamente sviluppati a questo scopo, tra cui X – SLIP (Montrasio et al., 1998), SHALSTAB (SHALlow STABility model, Montgomery & Dietrich, 1994), Iverson (2000), TRIGRS 1.0 (Baum et al., 2002), TRIGRS 2.0 (Baum et al., 2008).
Resumo:
La ricerca oggetto della tesi riguarda la disamina delle esperienze comunitarie e nazionali in Europa in materia di elusione IVA ed antielusione IVA, al fine di esaminare le utilizzabili esperienze in materia per la Cina che dovrebbe iniziare a prendere le giuste azioni per fronteggiare il problema della crescente diffusione dei fenomeni dell’elusione IVA, in particolare nel contesto della riforma perdurante dell’IVA cinese verso il modello moderno. A questo fine, prima la tesi ha analizzato dettagliatamente le seguenti principali questioni sulla base delle esperienze comunitarie e nazionali dei determinati Stati Membri dell’UE: la definizione dell’elusione fiscale generale (a tale proposito, più rilevanti le differenze tra elusione fiscale ed altri relativi concetti come risparmio d’imposta, evasione fiscale e simulazione e la relazione intrinseca tra elusione fiscale ed altri relativi concetti come frode alla legge ed abuso del diritto), la definizione dell’elusione IVA (a tale proposito, più rilevanti gli aspetti di particolare interesse ai fini della definizione dell’elusione IVA), i principi e metodologie dell’elusione IVA, le applicazioni delle varie misure antielusive rivolte all’elusione IVA nell’ordinamento comunitario e negli ordinamenti interni degli alcuni principali Stati Membri dell’UE (a tale proposito, più rilevanti l’applicazone del principio Halifax, quale norma antielusiva generale basata sul principio di divieto dell’abuso del diritto, e la considerazione delle altre soluzioni antielusive applicabili nell’IVA, comprese correzioni normative e clausole antielusive specifiche), gli effetti dell’antielusione IVA e i limiti entro cui l’autorità impositiva può esercitare l’antielusione IVA per la tutela degli interessi legittimi dei soggetti passivi come certezza giuridica ed autonomia contrattuale. Poi, la tesi ha avanzato le proposte relative al perfezionamento delle soluzioni antielusive IVA nell’ordinamento tributario cinese, dopo presentati i principali regimi attuali dell’IVA cinese e analizzate le situazioni attuali realtive all’elusione IVA e all’antielusione IVA nel sistema fiscale cinese.
Resumo:
Il presente studio si concentra sulle diverse applicazioni del telerilevamento termico in ambito urbano. Vengono inizialmente descritti la radiazione infrarossa e le sue interazioni con l’atmosfera terrestre, le leggi principali che regolano lo scambio di calore per irraggiamento, le caratteristiche dei sensori e le diverse applicazioni di termografia. Successivamente sono trattati nel dettaglio gli aspetti caratteristici della termografia da piattaforma satellitare, finalizzata principalmente alla valutazione del fenomeno dell'Urban Heat Island; vengono descritti i sensori disponibili, le metodologie di correzione per gli effetti atmosferici, per la stima dell'emissività delle superfici e per il calcolo della temperatura superficiale dei pixels. Viene quindi illustrata la sperimentazione effettuata sull'area di Bologna mediante immagini multispettrali ASTER: i risultati mostrano come sull'area urbana sia riscontrabile la presenza dell'Isola di Calore Urbano, anche se la sua quantificazione risulta complessa. Si procede quindi alla descrizione di potenzialità e limiti della termografia aerea, dei suoi diversi utilizzi, delle modalità operative di rilievo e degli algoritmi utilizzati per il calcolo della temperatura superficiale delle coperture edilizie. Tramite l’analisi di alcune esperienze precedenti vengono trattati l’influenza dell’atmosfera, la modellazione dei suoi effetti sulla radianza rilevata, i diversi metodi per la stima dell’emissività. Viene quindi introdotto il progetto europeo Energycity, finalizzato alla creazione di un sistema GeoWeb di supporto spaziale alle decisioni per la riduzione di consumi energetici e produzione di gas serra su sette città dell'Europa Centrale. Vengono illustrate le modalità di rilievo e le attività di processing dei datasets digitali per la creazione di mappe di temperatura superficiale da implementare nel sistema SDSS. Viene infine descritta la sperimentazione effettuata sulle immagini termiche acquisite nel febbraio 2010 sulla città di Treviso, trasformate in un mosaico georiferito di temperatura radiometrica tramite correzioni geometriche e radiometriche; a seguito della correzione per l’emissività quest’ultimo verrà trasformato in un mosaico di temperatura superficiale.
Resumo:
L’oggetto della nostra ricerca è l’opinione pubblica e il comportamento dell’elettore in una prospettiva comparata. L’obiettivo della ricerca è stato analizzare la relevanza degli approcci psicologici per una migliore comprensiore della partecipazione politica, delle opinioni e delle scelte elettorali degli studenti Italiani e Bielorussi. Nella parte teorica, noi discutiamo i modelli dell'approccio cognitivo al comportamento di voto. Discutiamo inoltre il concetto dello stile cognitivo e le sue cinque categorie: stile sintetico, idealistico, pragmatico, analitico o realistico, come descritti da A.Harrison and R.M. Branson e adattati da A. Alexeev and L. Gromova. Nonostante il fatto che la ricerca tratta il caso degli studenti, noi crediamo che i risultati siano pertinenti per un’ulteriore ricerca dell’auditorio più vasto e variegato.