887 resultados para Università degli Studi di Macerata
Resumo:
I grafi sono molto utilizzati per la rappresentazione di dati, sopratutto in quelle aree dove l’informazione sull’interconnettività e la topologia dei dati è importante tanto quanto i dati stessi, se non addirittura di più. Ogni area di applicazione ha delle proprie necessità, sia in termini del modello che rappresenta i dati, sia in termini del linguaggio capace di fornire la necessaria espressività per poter fare interrogazione e trasformazione dei dati. È sempre più frequente che si richieda di analizzare dati provenienti da diversi sistemi, oppure che si richieda di analizzare caratteristiche dello stesso sistema osservandolo a granularità differenti, in tempi differenti oppure considerando relazioni differenti. Il nostro scopo è stato quindi quello di creare un modello, che riesca a rappresentare in maniera semplice ed efficace i dati, in tutte queste situazioni. Entrando più nei dettagli, il modello permette non solo di analizzare la singola rete, ma di analizzare più reti, relazionandole tra loro. Il nostro scopo si è anche esteso nel definire un’algebra, che, tramite ai suoi operatori, permette di compiere delle interrogazioni su questo modello. La definizione del modello e degli operatori sono stati maggiormente guidati dal caso di studio dei social network, non tralasciando comunque di rimanere generali per fare altri tipi di analisi. In seguito abbiamo approfondito lo studio degli operatori, individuando delle proprietà utili per fare delle ottimizzazioni, ragionando sui dettagli implementativi, e fornendo degli algoritmi di alto livello. Per rendere più concreta la definizione del modello e degli operatori, in modo da non lasciare spazio ad ambiguità, è stata fatta anche un’implementazione, e in questo elaborato ne forniremo la descrizione.
Resumo:
Objectives: The aim of this research was to evaluate the impact of Cardiac Rehabilitation (CR) on risky lifestyles, quality of life, psychopathology, psychological distress and well-being, considering the potential moderating role of depression, anxiety and psychosomatic syndromes on lifestyles modification. The influence of CR on cardiac morbidity and mortality was also evaluated. Methods: The experimental group (N=108), undergoing CR, was compared to a control group (N=85) of patients affected by cardiovascular diseases, not undergoing CR, at baseline and at 1-month, 6- and 12-months follow-ups. The assessment included: the Structured Clinical Interview for DSM-IV, the structured interview based on Diagnostic Criteria for Psychosomatic Research (DCPR), GOSPEL questionnaire on lifestyles, Pittsburgh Sleep Quality Index, Morisky Medication Adherence Scale, MOS 36-Item Short Form Health Survey, Symptom Questionnaire, Psychological Well-Being Scale and 14-items Type D Scale. Results: Compared to the control group, CR was associated to: maintenance of the level of physical activity, improvement of correct dietary behaviors and stress management, enhancement of quality of life and sleep; reduction of the most frequently observed psychiatric diagnoses and psychosomatic syndromes at baseline. On the contrary, CR was not found to be associated with: healthy dietary habits, weight loss and improvement on medications adherence. In addition, there were no relevant effects on sub-clinical psychological distress and well-being, except for personal growth and purpose in life (PWB). Also, CR did not seem to play a protective role against cardiac recurrences. The presence of psychosomatic syndromes and depressive disorders was a mediating factor on the modification of specific lifestyles. Conclusions: The findings highlight the need of a psychosomatic assessment and an evaluation of psychological sub-clinical symptomatology in cardiac rehabilitation, in order to identify and address specific factors potentially associated with the clinical course of the heart disease.
Resumo:
The quality of fish products is indispensably linked to the freshness of the raw material modulated by appropriate manipulation and storage conditions, specially the storage temperature after catch. The purpose of the research presented in this thesis, which was largely conducted in the context of a research project funded by Italian Ministry of Agricultural, Food and Forestry Policies (MIPAAF), concerned the evaluation of the freshness of farmed and wild fish species, in relation to different storage conditions, under ice (0°C) or at refrigeration temperature (4°C). Several specimens of different species, bogue (Boops boops), red mullet (Mullus barbatus), sea bream (Sparus aurata) and sea bass (Dicentrarchus labrax), during storage, under the different temperature conditions adopted, have been examined. The assessed control parameters were physical (texture, through the use of a dynamometer; visual quality using a computer vision system (CVS)), chemical (through footprint metabolomics 1H-NMR) and sensory (Quality Index Method (QIM). Microbiological determinations were also carried out on the species of hake (Merluccius merluccius). In general obtained results confirmed that the temperature of manipulation/conservation is a key factor in maintaining fish freshness. NMR spectroscopy showed to be able to quantify and evaluate the kinetics for unselected compounds during fish degradation, even a posteriori. This can be suitable for the development of new parameters related to quality and freshness. The development of physical methods, particularly the image analysis performed by computer vision system (CVS), for the evaluation of fish degradation, is very promising. Among CVS parameters, skin colour, presence and distribution of gill mucus, and eye shape modification evidenced a high sensibility for the estimation of fish quality loss, as a function of the adopted storage conditions. Particularly the eye concavity index detected on fish eye showed a high positive correlation with total QIM score.
Resumo:
La relazione interdisciplinare tra letteratura e fotografia, nella rilettura della storia recente del Mozambico, è l’oggetto di studio della presente tesi. Il presupposto coincide in primo luogo con la disamina interna della dialettica esistente tra archivio coloniale e oralità, modalità narrativa in parte transitata nella estória, declinazione lusofona della forma breve che permette di recuperare l’eredità popolare del racconto tradizionale. Il dialogo tra verbale e visuale consente a sua volta di stabilire nuovi paradigmi interpretativi nel dibattito postcoloniale tra memoria, trauma e rappresentazione. L’analisi comparativa tra la narrativa di João Paulo Borges Coelho e la fotografia di Ricardo Rangel rivela sguardi diversi sul mondo circostante, ma anche convergenze contemplative che si completano nell’incorporazione reciproca delle “omologie strutturali” comuni alle due modalità espressive. La fotografia colma delle lacune fornendoci delle visioni del passato, ma, in quanto “rappresentazione”, ci mostra il mondo per come appare e non per come funziona. Il testo letterario, grazie al suo approccio dialogico-narrativo, consente la rielaborazione museologica della complessa pletora di interferenze semantiche e culturali racchiuse nelle immagini, in altre parole fornisce degli “indizi di verità” da cui (ri)partire per l’elaborazione di nuovi archetipi narrativi tra l’evento rappresentato e la Storia di cui fa parte. Il punto di tangenza tra i due linguaggi è la cornice, espediente fotografico e narrativo che permette di tracciare i confini tra l’indicibile e l’invisibile, ma anche tra ciò che si narra e ciò che sta fuori dalla narrazione, ovvero fuori dalla storia. La tensione dialettica che si instaura tra questi due universi è seminale per stabilire le ragioni della specificità letteraria mozambicana perché, come afferma Luandino Vieira, “nel contesto postcoloniale gli scrittori sono dei satelliti che ruotano intorno ai «buchi neri della storia» la cui forza di attrazione permette la riorganizzazione dell’intero universo letterario.
Resumo:
Con l’avvento di Internet, potentissimo strumento tecnologico di diffusione di informazioni e di comunicazione a distanza, anche le modalità di apprendimento sono cambiate: persino nelle scuole si tende a non utilizzare più i classici libri di testo, ma ad utilizzare dispositivi dai quali scaricare in formato elettronico, libri, dispense, test, video ed ogni altro genere di materiale di apprendimento, dando vita a un vero e proprio nuovo modo di apprendere chiamato E-learning, più veloce, comodo e ricco di alternative rispetto al vecchio modello offline che si presentava sottoforma di floppy inizialmente e poi di CD-ROM. E-learning significa, electronic based learning, ed è appunto una vera e propria metodologia di didattica che sfrutta e viene facilitata da risorse e servizi disponibili e accessibili virtualmente in rete. Al momento vi sono numerose piattaforme di E-learning, una delle quali è il nucleo di questa tesi, ovvero il tool autore AContent. Questo documento di tesi, infatti, raccoglie la descrizione della progettazione e della fase implementativa della gestione delle politiche di copyright per il tool AContent. L’obbiettivo è quello di rendere possibile l’assegnazione di un copyright a qualsiasi tipo di materiale didattico venga creato, caricato e/o condiviso sulla piattaforma in questione. Pertanto l’idea è stata quella di dare la possibilità di scegliere fra più copyright preimpostati, utilizzando degli standard di licenze riguardanti i diritti d’autore, lasciando anche l’opportunità di inserire la propria politica.
Resumo:
Pistoia rientra a buon diritto, nel quadro della Toscana medievale, in quella rete di centri urbani di antica origine e tradizione diocesana che riuscirono a costruire, nella dialettica fra città e territorio, un organismo politico autonomo, il comune cittadino. La ricerca prende in considerazione i resti materiali delle strutture conservate nel tessuto urbano attuale, in particolare l'edilizia civile, prediligendo la cosiddetta “edilizia minore”, ovvero gli edifici residenziali non monumentali che, proprio per questo motivo, sono generalmente poco conosciuti. Le strutture, censite ed inserite in una piattaforma GIS (Arpenteur), sono analizzate con metodo archeologico al fine di distinguere le diverse fasi costruttive, medievali e post-medievali, con cui sono giunte fino ad oggi. L'analisi stratigrafica, effettuata su rilievi realizzati mediante modellazione 3D (Photomodeler), ha permesso di costruire un primo “atlante” delle tipologie murarie medievali della città: i tipi murari assumono quindi la funzione di indicatori cronologici degli edifici analizzati. I dati stratigrafici, uniti al dato topologico dei complessi architettonici (localizzati prevalentemente nel centro storico, all'interno del circuito murario della metà del XII secolo), hanno fornito informazioni sia per quanto riguarda l'aspetto materiale degli edifici di abitazione (forma, dimensioni, materiali) sia per quanto riguarda temi di topografia storica (viabilità maggiore e minore, formazione dei borghi, orizzonte sociale degli abitanti, distribuzione della proprietà), nel periodo della “parabola” della Pistoia comunale (XII-XIII secolo). In conclusione, la ricerca vuole essere sia uno strumento di analisi per la storia delle trasformazioni delle città nel periodo comunale, sia uno strumento di conoscenza e tutela di un patrimonio storico-archeologico che, per la sua natura non-monumentale spesso sfugge all'attenzione di amministratori ed urbanisti.
Resumo:
Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.
Resumo:
Questa ricerca propone una lettura comparata degli scritti di Bernard Mandeville. L'intento è di porre in relazione gli argomenti morali, etici e politici con le "gandi voci" dell'epoca: primi fra tutti Hobbes e Locke. L'impianto interpretativo è strutturato in modo da delineare il metodo adottato nelle riflessioni filosofiche mandevilliane e da qui, mantenendo una divisione di piani, rintracciare i concetti di riferimento sia dal punto di vista metafico sia da quello ontologico. Si ritiene, allora, che il metodo basato sull'uomorismo, come forma oggettivante del fenomeno – sociale e non – porti alla definizione della nozione di natura umana a partire da una conzione di natura in sé corrotta metafisicamente. Ciò trova nel paradigma di "naturalismo fisiologico" un riferimento da cui muovere l'analisi antropologica e morale degli uomini in società. Un'indagine che rintraccia nell'"etica del male minore" un modello con cui valutare le scelte e le azioni in ambito collettivo e pubblico. La lettura dei vari testi, allora, mostra come la politica sia influenzata da questo modello nello strutturare istituzioni che stimolino la produzione e l'incremento della ricchezza, seppur questo non sia alla portata di tutti. La sperequazione economica, allora, a fronte di un benessere collettivo elevato appare come un "male minore".
Resumo:
Foodborne diseases impact human health and economies worldwide in terms of health care and productivity loss. Prevention is necessary and methods to detect, isolate and quantify foodborne pathogens play a fundamental role, changing continuously to face microorganisms and food production evolution. Official methods are mainly based on microorganisms growth in different media and their isolation on selective agars followed by confirmation of presumptive colonies through biochemical and serological test. A complete identification requires form 7 to 10 days. Over the last decades, new molecular techniques based on antibodies and nucleic acids allow a more accurate typing and a faster detection and quantification. The present thesis aims to apply molecular techniques to improve official methods performances regarding two pathogens: Shiga-like Toxin-producing Escherichia coli (STEC) and Listeria monocytogenes. In 2011, a new strain of STEC belonging to the serogroup O104 provoked a large outbreak. Therefore, the development of a method to detect and isolate STEC O104 is demanded. The first objective of this work is the detection, isolation and identification of STEC O104 in sprouts artificially contaminated. Multiplex PCR assays and antibodies anti-O104 incorporated in reagents for immunomagnetic separation and latex agglutination were employed. Contamination levels of less than 1 CFU/g were detected. Multiplex PCR assays permitted a rapid screening of enriched food samples and identification of isolated colonies. Immunomagnetic separation and latex agglutination allowed a high sensitivity and rapid identification of O104 antigen, respectively. The development of a rapid method to detect and quantify Listeria monocytogenes, a high-risk pathogen, is the second objective. Detection of 1 CFU/ml and quantification of 10–1,000 CFU/ml in raw milk were achieved by a sample pretreatment step and quantitative PCR in about 3h. L. monocytogenes growth in raw milk was also evaluated.
Resumo:
In questo elaborato si affrontano problematiche cliniche legate ai traumi gravi della cute in cui è necessario intervenire chirurgicamente per ripristinare una situazione normale: si approfondisce lo studio della fisiologia del tessuto, la classificazione dei gradi delle ustioni della pelle, la guarigione delle ferite e la meccanica della cute. Il trapianto di tessuto autologo costituisce la soluzione più efficace e con minori complicazioni. Tuttavia il paziente potrebbe non presentare una superficie di cute disponibile sufficientemente estesa, per cui si ricorre ad altri metodi. In primo luogo, si effettuano degli allotrapianti di tessuto di donatore cadavere prelevati secondo le normative vigenti e conservati attraverso le varie tecniche, il cui sviluppo ha consentito una durata di conservazione maggiore; mentre la glicerolizzazione abbatte al 100% il rischio di trasmissione di patologie e lo sviluppo di microorganismi, la crioconservazione preserva la vitalità del tessuto. La chirurgia utilizzata per queste operazioni si avvale di tecnologie innovative come la Tecnologia a Pressione Negativa. Un'alternativa necessaria per sopperire all'ingente richiesta di tessuto di donatore sono i sostituti cutanei, che presentano un grande potenziale per il futuro. Per eliminare totalmente il rischio di rigetto sarebbe necessario personalizzare il costrutto utilizzando cellule autologhe, ma la ricerca è stata rallentata da minori investimenti da parte dell'industria biomedica, che si è maggiormente focalizzata sulla realizzazione di prodotti utilizzabili da un più ampio raggio di pazienti. Per queste ragioni, l'ingegneria tissutale della cute ha trovato più ampio campo di applicazione nel sistema dei test in vitro. A tale scopo sono stati creati dei protocolli certificati per testare la corrosività, la irritabilità e la vitalità del tessuto cutaneo, quali EpiDerm, EpiSkin e SkinEthic che si avvalgono dell'uso del metodo MMT e della spettrofotometria, che è diventata un supporto fondamentale per le scienze biologiche.
Resumo:
La recente Direttiva 31/2010 dell’Unione Europea impone agli stati membri di riorganizzare il quadro legislativo nazionale in materia di prestazione energetica degli edifici, affinchè tutte le nuove costruzioni presentino dal 1° gennaio 2021 un bilancio energetico tendente allo zero; termine peraltro anticipato al 1° gennaio 2019 per gli edifici pubblici. La concezione di edifici a energia “quasi” zero (nZEB) parte dal presupposto di un involucro energeticamente di standard passivo per arrivare a compensare, attraverso la produzione preferibilmente in sito di energia da fonti rinnovabili, gli esigui consumi richiesti su base annuale. In quest’ottica la riconsiderazione delle potenzialità dell’architettura solare individua degli strumenti concreti e delle valide metodologie per supportare la progettazione di involucri sempre più performanti che sfruttino pienamente una risorsa inesauribile, diffusa e alla portata di tutti come quella solare. Tutto ciò in considerazione anche della non più procrastinabile necessità di ridurre il carico energetico imputabile agli edifici, responsabili come noto di oltre il 40% dei consumi mondiali e del 24% delle emissioni di gas climalteranti. Secondo queste premesse la ricerca pone come centrale il tema dell’integrazione dei sistemi di guadagno termico, cosiddetti passivi, e di produzione energetica, cosiddetti attivi, da fonte solare nell’involucro architettonico. Il percorso sia analitico che operativo effettuato si è posto la finalità di fornire degli strumenti metodologici e pratici al progetto dell’architettura, bisognoso di un nuovo approccio integrato mirato al raggiungimento degli obiettivi di risparmio energetico. Attraverso una ricognizione generale del concetto di architettura solare e dei presupposti teorici e terminologici che stanno alla base della stessa, la ricerca ha prefigurato tre tipologie di esito finale: una codificazione delle morfologie ricorrenti nelle realizzazioni solari, un’analisi comparata del rendimento solare nelle principali aggregazioni tipologiche edilizie e una parte importante di verifica progettuale dove sono stati applicati gli assunti delle categorie precedenti
Resumo:
Il vento di barriera (VB) è un fenomeno meteorologico a mesoscala che interessa il flusso nei bassi strati atmosferici ed è dovuto all'interazione con l'orografia. Se il numero di Froude upstream è sufficientemente piccolo si genera una deviazione orizzontale del flusso incidente. Si può raggiungere uno stato quasi-stazionario, nel quale un intenso vento soffia parallelo all'orografia nei bassi strati. Nel presente lavoro si è innanzitutto sviluppata una climatologia degli eventi di VB nella regione italiana su un periodo biennale. Gli eventi sono stati classificati per la velocità del flusso incidente e la velocità e direzione del VB a 950 hPa, e per il numero di Froude upstream. Si è poi studiata la distribuzione degli eventi rispetto al numero di Froude. La climatologia è risultata in buon accordo con la teoria idealizzata dei flussi sopra l'orografia. Tre casi di studio sono stati successivamente simulati utilizzando i modelli BOLAM e MOLOCH dell'istituto CNR-ISAC di Bologna. Per ciascun evento sono stati calcolati il numero di Froude upstream e i parametri principali, quali velocità, estensione, temperatura ecc. Per uno dei casi, riguardante le Alpi orientali, le simulazioni sono state confrontate con dati osservati di vento, pressione, temperatura e precipitazione. Sono poi stati condotti dei sensitivity tests con orografia diminuita su ognuno degli eventi. È stata così verificata l'importanza dell'effetto orografico e l'intensità del fenomeno del VB è stata associata al numero di Froude. Un indice, denominato Barrier Wind Index (BWI) è stato ideato a tale scopo. Le simulazioni hanno mostrato un buon accordo con la teoria, indicandone i limiti di applicabilità all'atmosfera reale. In particolare, il Barrier Wind Index tende ad aumentare linearmente al diminuire del numero di Froude. Le simulazioni hanno evidenziato l'elevata influenza del VB sulla circolazione atmosferica a mesoscala, sulla distribuzione e intensità della precipitazione e sull'avvezione di temperatura e umidità.
Resumo:
La ricerca si è focalizzata su due degli aspetti di interesse odontoiatrico più diffusi: la carie dentaria e la parodontite cronica. Il problema della carie dentaria è stato studiato in una popolazione di 39 soggetti affetti da cardiopatia congenita in cui la scarsa igiene orale è fattore di rischio per problematiche di salute generale e soprattutto per lo sviluppo di endocardite infettiva. I dati osservati e confrontati con quelli di un omogeneo gruppo di controllo dimostrano che nella dentatura decidua questi bambini hanno più denti cariati, come dimostrato dalla significativa differenza dell'indice dmft. Nella dentatura permanente non si osservano differenze tra i due gruppi. La carica microbica totale rilevata nella saliva e la presenza di Streptococcus mutans non mostrano differenze tra i due gruppi. I problemi di parodontite cronica sono stati studiati in un gruppo di 352 soggetti italiani adulti in cui si è definita la prevalenza dei 6 più importanti patogeni parodontali e la possibile correlazione con parametri clinici (pus, sanguinamento al sondaggio - BOP, profondità di sondaggio della tasca parodontale – PPD). Tra le 6 specie batteriche ricercate, quello di più frequente riscontro è stato Fusobacterium nucleatum (95%), mentre quello con carica batterica più alta è stato Tannerella forsythia. La carica batterica di Porphyromonas gingivalis, Treponema denticola, Tannerella forsythia e Fusobacterium nucleatum ha mostrato una correlazione diretta con il BOP e la presenza di pus. Inoltre, si è riscontrato che la carica batterica di tutte le specie (tranne Aggregatibacterium actinomycetemcomitans) aumenta all'aumentare del PPD. Tra le variabili studiate, PPD rappresenta il più importante fattore di rischio per la presenza di parodontopatogeni, mentre BOP è un indicatore di rischio per la ricerca del complesso rosso.
Resumo:
Nell'ultimo decennio il trend topic nell'ambito dell'insegnamento dell'informatica è il pensiero computazionale. Concetto già presente, è stato risaltato nel 2006 da Jeannette Wing, che ha mostrato come l'informatica abbia portato alla scienza non solo strumenti (computer e linguaggi di programmazione) ma anche innovazioni nel modo di pensare (es. algoritmo shotgun per sequenziamento del DNA umano). Il pensiero computazionale è il processo mentale coinvolto nel formulare problemi e loro soluzioni, rappresentate in una forma che sia effettivamente eseguibile da un agente che processa informazioni. Si tratta di “pensare come un informatico” quando si affronta un problema. Dopo aver passato in rassegna la letteratura sul pensiero computazionale, viene proposta una definizione del concetto. Si prende atto che la ricerca in questi anni sia rimasta molto legata ai linguaggi di programmazione, concetto centrale dell’Informatica. Vengono allora proposte due strade. La prima strada consiste nella riesumazione di tutta una serie di studi di Psicologia della Programmazione, in particolare: studi sulle misconcezioni, che si occupano di individuare i concetti che sono compresi male dai programmatori novizi, e studi sul commonsense computing, che cercano di capire come persone che non hanno mai ricevuto nozioni di programmazione - o più in generale di informatica – esprimano (in linguaggio naturale) concetti e processi computazionali. A partire da queste scoperte, si forniscono una serie di consigli per insegnare al meglio la programmazione (con i linguaggi attuali, con nuovi linguaggi appositamente progettati, con l'aiuto di strumenti ed ambienti ad-hoc) al più ampio pubblico possibile. La seconda strada invece porta più lontano: riconoscere il pensiero computazionale come quarta abilità di base oltre a leggere, scrivere e calcolare, dandogli dunque grande importanza nell’istruzione. Si vuole renderlo “autonomo” rispetto alla programmazione, fornendo consigli su come insegnarlo senza - ma anche con - l'ausilio di un formalismo.
Resumo:
L’armonizzazione fiscale è una importante sfida che l’Unione Europea si trova ad affrontare per la completa realizzazione del mercato interno. Le istituzioni comunitarie, tuttavia, non dispongono delle competenze legislative per intervenire direttamente negli ordinamenti tributari degli Stati membri. Svolgendo una analisi del contesto legislativo vigente, ed esaminando le prospettive de iure condendo della materia fiscale dell’Unione, il presente lavoro cerca di comprendere le prospettive di evoluzione del sistema, sia dal punto di vista della normativa fiscale sostanziale, che procedimentale. Mediante la disciplina elaborata a livello comunitario che regola la cooperazione amministrativa in materia fiscale, con particolare riferimento alle direttive relative allo scambio di informazioni e all’assistenza alla riscossione (dir. 2011/16/UE e dir. 2010/24/UE) si permette alle Amministrazioni degli Stati membri di avere accesso ai reciproci ordinamenti giuridici, e conoscerne i meccanismi. L’attuazione di tali norme fa sì che ciascun ordinamento abbia l’opportunità di importare le best practices implementate dagli altri Stati. L’obiettivo sarà quello di migliorare il proprio procedimento amministrativo tributario, da un lato, e di rendere più immediati gli scambi di informazione e la cooperazione alla riscossione, dall’altro. L’armonizzazione fiscale all’interno dell’Unione verrebbe perseguita, anziché mediante un intervento a livello europeo, attraverso un coordinamento “dal basso” degli ordinamenti fiscali, realizzato attraverso l’attività di cooperazione delle amministrazioni che opereranno su un substrato di regole condivise. La maggiore apertura delle amministrazioni fiscali dei Paesi membri e la maggiore spontaneità degli scambi di informazioni, ha una efficacia deterrente di fenomeni di evasione e di sottrazione di imposta posti in essere al fine di avvantaggiarsi delle differenze dei sistemi impositivi dei vari paesi. Nel lungo periodo ciò porterà verosimilmente, gli Stati membri a livellare i sistemi impositivi, dal momento che i medesimi non avranno più interesse ad utilizzare la leva fiscale per generare una concorrenza tra gli ordinamenti.