265 resultados para Enti Locali
Resumo:
Le malattie neurodegenerative sono caratterizzate da aggregazione proteica, dipendente dalla perdita della usuale struttura fisiologica funzionale delle proteine coinvolte, a favore di conformazioni tossiche (patologiche). Il modello corrente descrive questi cambiamenti conformazionali come eventi rari e ritiene che non esista una sola conformazione patogena, ma che tali possibili conformazioni siano piuttosto eterogenee. La caratterizzazione di queste strutture è, di conseguenza, difficile con le tradizionali tecniche in bulk che permettono di studiare solo la conformazione media e non rendono possibile il riconoscimento delle caratteristiche dei conformeri individuali. Lo sviluppo delle tecniche di singola molecola ha permesso di studiare in modo approfondito le conformazioni possibili. In questo lavoro la spettroscopia di forza di singola molecola basata sull'AFM viene applicata a PrP (proteina responsabile delle encefalopatie spongiformi trasmissibili). Si studiano gli equilibri conformazionali del monomero e quelli di costrutti oligomerici, allo scopo di caratterizzare gli step iniziali dei processi aggregativi. Nel corso di questo lavoro di tesi è stato, in particolare, sviluppato un sistema di analisi dati, al fine di studiare in modo quantitativo le distribuzioni di eventi ottenute. Grazie a tale strumento è stato possibile riconoscere i segnali di unfolding della conformazione nativa del monomero e notare come essa sia presente anche in costrutti oligomerici, ad indicare come questo ripiegamento sia stabile anche in presenza di più monomeri ravvicinati. Si è osservato l'effetto del pH sulla stabilità di tale struttura, notando come pH acidi destabilizzino il ripiegamento nativo. Inoltre si è studiato il ruolo dell'orientazione dei monomeri nella formazione di strutture dimeriche. Monomeri e oligomeri di PrP sono stati descritti come proteine parzialmente strutturate il cui panorama energetico contiene molti minimi locali, dando origine a parecchie conformazioni transienti.
Resumo:
In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.
Resumo:
La congestione del traffico è un fenomeno molto familiare, con il quale si ha a che fare nelle più svariate occasioni. Dal punto di vista fisico, il flusso del traffico rappresenta un sistema di particelle interagenti (i ve- icoli) in condizione di non equilibrio. L’effetto complessivo di un sistema composto da molte particelle interagenti è la creazione di una instabil- ità, osservata empiricamente, nello stato di free flow (scorrimento libero), causata dall’aumentare delle fluttuazioni. In questi casi di parla di phan- tom traffic jam, ovvero una congestione che ha origine senza cause appar- enti, come incidenti o lavori in corso. Sarà dimostrato come la condizione di stop & go si verifichi spontaneamente se la densità media dei veicoli eccede un certo valore critico. L’importanza di poter predire una congestione stradale non è un problema puramente matematico, ma ha risvolti socio-economici non indifferenti. Infatti, le caratteristiche della mobilità e dei sistemi di trasporto sono strettamente legate alla struttura della comunità e alla qualità della vita. Con il seguente studio si cercherà di trovare un osservabile facilmente calcolabile, che potrebbe essere un predittore della formazione di uno stato congestionato con un intervallo di tempo sufficientemente adeguato. A tal fine sono state prese in considerazione misure relative alle condizioni del traffico su strade provinciali dell’Emilia-Romagna, tramite un sistema MTS composto da 3509 spire che registra i passaggi delle macchine; in seguito, per poter avere una comprensione maggiore dei fenomeni che si manifestano durante la transizione a stato congestionato, si è provveduto a creare un modello matematico utilizzato per le simulazioni al computer. I risultati ottenuti dalle simulazioni, poi, sono stati utilizzati per trovare l’osservabile cercato nei dati pervenuti dalle strade campione.
Resumo:
La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.
Resumo:
Una curva di Jordan è una curva continua nel piano, semplice e chiusa. Lo scopo della tesi è presentare tre teoremi riguardanti le curve di Jordan. Il teorema dei quattro vertici afferma che ogni curva di Jordan regolare di classe C^2 ha almeno quattro punti in cui la curvatura orientata ha un massimo o un minimo locali. Il teorema della curva di Jordan asserisce che una curva di Jordan divide il piano esattamente in due parti, l'interno e l'esterno della curva. Secondo il teorema di Schönflies, la chiusura dell'interno di una curva di Jordan è omeomorfa a un disco chiuso.
Resumo:
Zwetschge sucht Streusel è un romanzo rosa umoristico scritto da Petra Klotz e Susanne Schönfeld ambientato a Ulm, città del Baden-Württemberg. Il testo presenta numerosi elementi legati a questa particolare regione tedesca, come l'uso del dialetto svevo e riferimenti a canzoni, personaggi e leggende locali. Dopo una breve introduzione alle autrici, al testo e all'ambiente culturale nel quale si colloca, l'elaborato sviluppa un'analisi sulle strategie traduttive formulate da Reiß, sui concetti di Fremdes e Eigenes, sulla natura della Komik e il suo rapporto con la traduzione. Viene quindi proposta una traduzione di alcune pagine del romanzo, seguite da un commento al testo e alle strategie traduttive, che analizza lessico e sintassi, giochi di parole e culture-specific items incontrati.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
La rapida diffusione di Sistemi Aerei a Pilotaggio Remoto che si è verificata negli ultimi anni ha portato alla necessità di regolamentare ed armonizzare il loro utilizzo. I vari enti regolatori nazionali hanno dovuto trovare una soluzione a fronte di una serie di incidenti che hanno portato alla luce le lacune normative ed organizzative che ancora esistevano in materia. In Italia, in particolare, l’Ente Nazionale Aviazione Civile (ENAC) ha introdotto da fine 2013 un regolamento, più volte aggiornato e in parte ancora in fase di definizione, che impone delle rigide norme agli operatori dei mezzi a pilotaggio remoto. La presente attività riporta quindi lo sviluppo di un processo di certificazione di un Sistema Aereo a Pilotaggio Remoto ad ala fissa con peso massimo al decollo superiore a 25 kg, che si possa adattare alle più recenti norme presenti nel regolamento. Si presenta quindi lo sviluppo del Manuale di volo e del documento di Valutazione del rischio del mezzo, seguiti dallo studio del programma di attività sperimentale necessario per la certificazione. Infine, nella parte finale dell’elaborato si presentano dei test di volo effettuati seguendo il piano di sperimentazione strutturato e atti a dimostrare l’efficacia di tale pianificazione. Tali voli sono stati condotti infatti con un velivolo con caratteristiche similari a quelle del mezzo oggetto di studio, ma avente dimensioni e peso minori.
Resumo:
Il presente lavoro di tesi propone uno studio approfondito di proprietà morfologiche e di trasporto di carica di film sottili di SiOxNy amorfi (a-SiOxNy) e nanocristallini (nc-SiOxNy), che trovano importanti applicazioni in celle fotovoltaiche ad eterogiunzione in silicio, ad alta efficienza. Lo studio è condotto mediante caratterizzazione elettrica e morfologica attraverso tecniche di microscopia a forza atomica (AFM). Sono stati studiati campioni di a-SiOxNy cresciuti con tecnica PECVD (Plasma Enhanced Chemical Vapor Deposition), in cui è stata variata unicamente la distanza tra gli elettrodi durante la deposizione. Sono stati inoltre studiati campioni di nc-SiOxNy, cresciuti con PECVD con una differente percentuale di N2O come gas precursore e un differente tempo di annealing. In entrambi i casi si tratta di un materiale innovativo, le cui proprietà fisiche di base, nonostante le numerose applicazioni, sono ancora poco studiate. L'analisi morfologica, condotta mediante AFM e successiva analisi statistica delle immagini, ha permesso di determinare alcune proprietà morfologiche dei campioni. L’analisi statistica delle immagini è stata validata, dimostrandosi stabile e consistente per lo studio di queste strutture. Lo studio delle proprietà di trasporto è stato condotto mediante acquisizione di mappe di corrente con tecnica conductive-AFM. In questo modo si è ottenuta una mappa di conducibilità locale nanometrica, che permette di comprendere come avviene il trasporto nel materiale. L'analisi di questo materiale mediante tecniche AFM ha permesso di evidenziare che l'annealing produce nei materiali nanocristallini sia un clustering della struttura, sia un significativo aumento della conducibilità locale del materiale. Inoltre la distanza tra gli elettrodi in fase di deposizione ha un leggero effetto sulle dimensioni dei grani. È da notare inoltre che su questi campioni si sono osservate variazioni locali della conducibilità alla nanoscala. L’analisi delle proprietà dei materiali alla nanoscala ha contribuito alla comprensione più approfondita della morfologia e dei meccanismi di trasporto elettronico.
Resumo:
L’obiettivo che questo elaborato di Tesi si pone è quello di dimostrare l’esistenza di una correlazione tra la produttività agricola e le principali variabili climatiche rilevate per la Provincia di Ravenna. La prima parte del lavoro ha riguardato la raccolta dei dati da archivi digitali e cartacei inerenti l’andamento climatico dell’ultimo trentennio e la produzione agronomica di alcune colture selezionate. I dati meteo sono stati organizzati secondo variabili a livello annuale, stagionale e mensile; questi parametri climatici, assieme ai dati di produttività, sono stati ordinati in un database che copre il periodo 1976 – 2014, dal quale si è partito per procedere alla loro elaborazione statistica. Il lavoro è stato organizzato in tre fasi: ricerca di quali variabili climatiche a scala locale hanno determinato maggiormente l’andamento della produzione agricola di specifiche colture; ricerca di una possibile relazione tra l’indice climatico a scala continentale NAO (North Atlantic Oscillation) e le variabili climatiche locali; infine è stato eseguito un tentativo per cercare di relazionare direttamente la produttività agricola con l’andamento del NAO. La divisione dell’analisi dei dati in queste tre parti ha permesso uno studio più dettagliato di quelle che potrebbero essere le relazioni fra gli elementi considerati, allo scopo di valutare una possibile relazione complessiva tra di essi. Tra i risultati ottenuti, le relazioni che hanno dimostrato maggiormente gli andamenti previsti si sono verificate nel caso della produzione dei cereali autunno – vernini, sia rispetto alle variabili climatiche locali che rispetto all’andamento del NAO. Inoltre, con la relazione tra NAO invernale e variabili climatiche locali, è stata verificata l’effettiva influenza di questo indice sui parametri climatici del territorio in oggetto.
Resumo:
L’obiettivo del lavoro esposto nella seguente relazione di tesi ha riguardato lo studio e la simulazione di esperimenti di radar bistatico per missioni di esplorazione planeteria. In particolare, il lavoro si è concentrato sull’uso ed il miglioramento di un simulatore software già realizzato da un consorzio di aziende ed enti di ricerca nell’ambito di uno studio dell’Agenzia Spaziale Europea (European Space Agency – ESA) finanziato nel 2008, e svolto fra il 2009 e 2010. L’azienda spagnola GMV ha coordinato lo studio, al quale presero parte anche gruppi di ricerca dell’Università di Roma “Sapienza” e dell’Università di Bologna. Il lavoro svolto si è incentrato sulla determinazione della causa di alcune inconsistenze negli output relativi alla parte del simulatore, progettato in ambiente MATLAB, finalizzato alla stima delle caratteristiche della superficie di Titano, in particolare la costante dielettrica e la rugosità media della superficie, mediante un esperimento con radar bistatico in modalità downlink eseguito dalla sonda Cassini-Huygens in orbita intorno al Titano stesso. Esperimenti con radar bistatico per lo studio di corpi celesti sono presenti nella storia dell’esplorazione spaziale fin dagli anni ’60, anche se ogni volta le apparecchiature utilizzate e le fasi di missione, durante le quali questi esperimenti erano effettuati, non sono state mai appositamente progettate per lo scopo. Da qui la necessità di progettare un simulatore per studiare varie possibili modalità di esperimenti con radar bistatico in diversi tipi di missione. In una prima fase di approccio al simulatore, il lavoro si è incentrato sullo studio della documentazione in allegato al codice così da avere un’idea generale della sua struttura e funzionamento. È seguita poi una fase di studio dettagliato, determinando lo scopo di ogni linea di codice utilizzata, nonché la verifica in letteratura delle formule e dei modelli utilizzati per la determinazione di diversi parametri. In una seconda fase il lavoro ha previsto l’intervento diretto sul codice con una serie di indagini volte a determinarne la coerenza e l’attendibilità dei risultati. Ogni indagine ha previsto una diminuzione delle ipotesi semplificative imposte al modello utilizzato in modo tale da identificare con maggiore sicurezza la parte del codice responsabile dell’inesattezza degli output del simulatore. I risultati ottenuti hanno permesso la correzione di alcune parti del codice e la determinazione della principale fonte di errore sugli output, circoscrivendo l’oggetto di studio per future indagini mirate.
Resumo:
Il presente studio è stato effettuato per comprendere le abitudini degli studenti universitari britannici in termini di consumo di alcol e i rischi legati a due fenomeni frequenti nel Regno Unito: il binge drinking (consumo eccessivo di alcol in un breve lasso di tempo, spesso per raggiungere velocemente lo stato di ebbrezza) e, in misura minore, il drink spiking (contaminazione di bevande con droghe o alcol). Attraverso un’analisi di studi accademici, sondaggi e articoli della stampa britannica, verrà presentato nella prima parte il ruolo dell’alcol nel Regno Unito, verranno fornite varie definizioni di binge drinking ed evidenziate le variazioni di significato del termine nel tempo. Saranno, poi, presentati i livelli di assunzione di riferimento di alcol emessi dall’NHS, il sistema sanitario nazionale del Regno Unito, seguiti da un’analisi sull’uso dell’alcol nel Regno Unito. Per quanto riguarda gli studenti universitari, verranno analizzati i motivi che li spingono al consumo di alcol, il binge drinking e le NekNomination (giochi alcolici online), l’uso dei pre-drinks (ritrovi serali tra amici per bere alcol prima di uscire) e le modalità in cui college e università aiutano gli studenti per evitare loro di incorrere in rischi legati all’alcol. In particolare, verranno analizzati drink spiking, violenze sessuali e fisiche, rischi per la salute e morte accidentale, e verranno presentate alcune strategie applicate per evitarli. La seconda parte verterà sull’analisi e discussione dei risultati di un sondaggio realizzato a Durham (Regno Unito) nel febbraio 2015 attraverso interviste a studenti universitari britannici e portieri di college e proprietari e membri dello staff di pub e bar locali con domande basate sulle loro esperienze, opinioni ed eventuali testimonianze riguardo il consumo di alcol, i fenomeni e i rischi sopra menzionati. Lo studio ha portato a vari risultati che hanno permessi di confermare e ampliare conoscenze pregresse sui temi trattati.
Resumo:
L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.
Resumo:
Il cambiamento climatico è un fenomeno in atto a livello globale, oggi scientificamente dimostrato, irreversibile nel breve periodo, i cui effetti hanno già provocato nel Mondo ingenti perdite sociali, economiche ed ecosistemiche. Il fattore di incertezza che permane riguarda il modo in cui evolverà il clima nel futuro, che a sua volta dipende dalle quantità di gas climalteranti che continueranno ad essere immesse in atmosfera, e di conseguenza la tipologia e la dimensione degli impatti che potranno verificarsi. Di fronte all’inevitabilità del problema e dei rischi che ne derivano, l’uomo può adattarsi, come per sua natura ha sempre fatto di fronte a condizioni esterne – anche climatiche – avverse. Le strategie di adattamento al cambiamento climatico, secondo un approccio bottom-up, mirano a ridurre la vulnerabilità dei sistemi esposti alle variazioni del clima, rendendoli più preparati ad affrontare il futuro. Oltre ai fattori climatici vi sono altri elementi che incidono in modo determinante sulla vulnerabilità: sono tutte le variabili interne e specifiche di un sistema che ne definiscono il grado di sensibilità verso un potenziale danno. Lo studio ha focalizzato l’attenzione su tre Comuni dell’Appennino Faentino al fine di capire come il cambiamento climatico influisce sulle criticità naturali già esistenti e sulla vita dell’uomo e le sue attività e, conseguentemente, quali azioni potranno essere messe in atto per limitare il pericolo e i potenziali danni.
Resumo:
Il presente elaborato finale ha l’obiettivo di effettuare una ricerca, un’analisi e una catalogazione in glossari dei germanismi all’interno della lingua slovacca, la quale presenta all’incirca tremila termini provenienti dalle lingue germano-tedesche. Sulla base del lavoro svolto precedentemente da numerosi linguisti slovacchi (tra cui Petrovič, Žilová, Adamcová, Dolník, Decsy, Habovštiak, Habovštiaková, Žigo, Múcsková, Blanár, Doruľa, Palkovič, Papsonová, Kozmová) e altri linguisti germanofoni e ungheresi (tra cui Ziegler, Greule, Meier, Toth, Rudolf, Muhr) è stato raccolto il materiale fondamentale per la stesura della presente tesi di laurea. Tuttavia l’opera che getta le basi per l’analisi è Sprachontakte Deutsch - Tschechisch - Slowakisch dello slavista e professore presso l’Università di Vienna Stephan Michael Newerkla, il quale ha stilato un vero e proprio dizionario dei germanismi presenti nello slovacco e nel ceco suddividendoli in categorie temporali, a cominciare dal gotico per finire con il nuovo tedesco standard. All’interno della sua opera l’autore austriaco ha inserito anche le parole che solo presumibilmente o secondo alcuni precedenti linguisti avrebbero origine germanica e i termini la cui presunta provenienza dal tedesco è stata riconosciuta come erronea; nel presente elaborato sono state prese in considerazione invece solo le parole di certa origine tedesca. Le parole sono state selezionate e suddivise in quattordici categorie semantico-lessicali: 1. Industria mineraria, utensili, numismatica e minerali, 2. Edifici, locali e arredamento, 3. Tessuti e stoffe, 4. Strumenti musicali, 5. Vestiti, 6. Alimentari e consumo, 7. Termini bellici, 8. Persone e funzioni, 9. Piante ed elementi chimici, 10. Religione e costumi, 11. Animali e le loro parti del corpo, 12. Verbi, 13. Aggettivi, 14. Parole rimanenti In ogni singolo glossario vi sono tre colonne: nella prima si trova il termine slovacco accompagnato dalla sua definizione, nella seconda vi è la traduzione della parola in italiano e nella terza il significato e la spiegazione dell’origine in tedesco. Al presente elaborato viene allegato un appendice finale in cui sono riportati in ordine alfabetico tutti i germanismi analizzati assieme a quelli non più in uso.