302 resultados para Generatore, OLAP, sessioni, profili
Resumo:
La tesi si propone l’obiettivo di indagare le modalità di interazione tra conoscenze tecnico-scientifiche e dato normativo, a partire dallo studio delle c.d. norme tecniche, ossia le norme, dotate di forza giuridica o meno, elaborate sulla base di conoscenze tecnico-scientifiche. La ricerca analizza diversi settori dell’ordinamento, accomunati da un’elevata influenza di saperi tecnici e al tempo stesso da un’indubbia rilevanza dal punto di vista costituzionale (la disciplina delle sperimentazioni cliniche dei farmaci, quella delle emissioni inquinanti di origine industriale e quella relativa agli standard di sicurezza dei prodotti), individuando quelle che al loro interno si possono considerare norme tecniche e mettendone in luce sia i profili formali (in quali atti-fonte sono contenute, quale natura giuridica presentano) che il procedimento di formazione, con particolare attenzione ai soggetti che vi prendono parte. Si propone quindi una sistematizzazione degli elementi emersi dall’indagine a partire da due diverse prospettive: in primo luogo tali dati vengono analizzati dal punto di vista dogmatico, individuando i diversi meccanismi di ingresso del dato tecnico-scientifico nel tessuto normativo (incorporazione nella norma giuridica, impiego di clausole generali, rinvio a norme extra-giuridiche), al fine di mettere in luce eventuali profili problematici per quanto riguarda il sistema delle fonti. La seconda prospettiva prende invece quale punto di riferimento il “centro di elaborazione sostanziale” delle norme considerate, al fine di evidenziarne i diversi fattori di legittimazione: a partire da esigenze di armonizzazione della disciplina e dall’assunto della neutralità delle conoscenze tecnico-scientifiche rispetto agli interessi coinvolti, l’elaborazione delle norme tecniche vede infatti un significativo ripensamento degli equilibri non solo fra attori pubblici e privati, ma anche tra legittimazione politica e legittimazione “tecnica” della scelta normativa. A tali aspetti è dedicata la parte conclusiva del lavoro, in particolare per quanto riguarda la conformità rispetto al disegno costituzionale.
Resumo:
«I felt that the time had come to have a fresh look at the European VAT system. There were indeed a number of reasons which in my view justified taking this step»: da queste parole del Commissario Europeo Algirdas Šemeta trae ispirazione tale ricerca che ha l’obiettivo di ripercorrere, in primo luogo, le ragioni che hanno portato alla creazione di una imposta comunitaria plurifase sui consumi, ed in secondo luogo, i motivi per cui oggi è necessario un ripensamento sul tema. Le spinte ammodernatrici provengono anche dagli stessi organismi europei, che sono impegnati da anni in discussioni con gli Stati membri per arrivare alla definizione di una normativa che riesca a disegnare un sistema snello ed efficiente. Il primo importante passo in tale direzione è stato effettuato dalla stessa Commissione europea nel 2010 con l’elaborazione del Libro Verde sul futuro dell’IVA, in cui vengono evidenziati i profili critici del sistema e le possibili proposte di riforma. L’obiettivo di dare origine ad un EU VAT SYSTEM in grado di rendere la tassazione più semplice, efficace, neutrale ed anti frode. In questo lavoro si intendono sottolineare i principali elementi critici della normativa IVA comunitaria, ideando anche le modifiche che potrebbero migliorarli, al fine di creare un’ipotesi normativa capace di essere un modello ispiratore per la modifica del sistema di imposizione indiretta esistente nella Repubblica di San Marino che ad oggi si trova a doversi confrontare con una imposta monofase alle importazioni anch’essa, come l’IVA, oramai in crisi.
Resumo:
Obiettivo del lavoro è quello di legare tra di loro due aspetti che storicamente sono sempre stati scollegati. Il primo è il lungo dibattito sul tema “oltre il PIL”, che prosegue ininterrottamente da circa mezzo secolo. Il secondo riguarda l’utilizzo dei sistemi di misurazione e valutazione della performance nel settore pubblico italiano. Si illustra l’evoluzione del dibattito sul PIL facendo un excursus storico del pensiero critico che si è sviluppato nel corso di circa cinquanta anni analizzando le ragioni assunte dagli studiosi per confutare l’utilizzo del PIL quale misura universale del benessere. Cogliendo questa suggestione l’Istat, in collaborazione con il CNEL, ha avviato un progetto per individuare nuovi indicatori da affiancare al PIL, in grado di misurare il livello non solo della crescita economica, ma anche del benessere sociale e sostenibile, con l’analisi degli indicatori riferiti a 12 domini di benessere individuati. Al progetto Istat-CNEL si è affiancato il progetto UrBES, promosso dall’Istat e dal Coordinamento dei sindaci metropolitani dell’ANCI, che hanno costituito una rete di città metropolitane per sperimentare la misurazione e il confronto sulla base di indicatori di benessere urbano equo e sostenibile, facendo proprio un progetto del Comune di Bologna e di Laboratorio Urbano (Centro di documentazione, ricerca e proposta sulle città), che ha sottoposto a differenti target un questionario on line, i cui risultati, con riferimento alle risposte fornite alle domande aperte, sono stati elaborati attraverso l’utilizzo di Taltac, un software per l’analisi dei testi, al fine di individuare i “profili” dei rispondenti, associando i risultati dell’elaborazione alle variabili strutturali del questionario. Nell’ultima parte i servizi e progetti erogati dal comune di Bologna sono stati associati alle dimensioni UrBES, per valutare l’impatto delle politiche pubbliche sulla qualità della vita e sul benessere dei cittadini, indicando le criticità legate alla mancanza di dati adeguati.
Resumo:
La suddivisione in aree assistenziali per intensità di cura e non in reparti e unità operative, consente al personale medico e sanitario una migliore gestione del paziente, ponendolo al centro del suo percorso di cura, evitando dispersioni, sprechi di tempo, di spazio, di risorse e consentendo una ottimizzazione del proprio lavoro. I settori su cui questo elaborato tende a focalizzarsi maggiormente, sono le aree a media e bassa intensità. Tali aree ospitano pazienti i quali necessitano di monitoraggio dei propri parametri fisiologici vitali, ma non in modo invasivo e costante come al contrario avviene in aree assistenziali ad intensità più alta. Si tratterà in particolare di quali dispositivi sono i più adatti per essere impiegati all’interno di tali aree. Si vuole sottolineare l’importanza della “modularità” di questi dispositivi, ovvero la possibilità di rilevare solo ed esclusivamente i parametri che realmente servono al medico per comprendere il quadro clinico del paziente in fase di stabilizzazione. I dati rilevati vengono poi generalmente trasmessi a un accentratore attraverso Bluetooth o altri standard a corto raggio. La cartella clinica del paziente viene aggiornata automaticamente e il personale sanitario può accedere in qualsiasi momento allo storico dei dati, ottimizzando il proprio lavoro. Per descrivere lo stato dell’arte dei dispositivi ne vengono riportati due esempi: Win@Hospital dell’azienda pisana Winmedical e EverOn dell’azienda israeliana EarlySense. L’integrazione dei dati medicali di questi dispositivi, così come per tutte le apparecchiature biomedicali presenti all’interno degli ospedali, avviene per mezzo di standard quali HL7 e sulla base di profili di integrazione definiti da IHE.
Resumo:
Nella tesi, dopo un'introduzione di carattere generale sull'endoscopia digestiva, vengono analizzate le innovazioni tecnologiche che permettono il miglioramento ed il potenziamento delle immagini endoscopiche tramite elaborazione real-time, al fine di rilevare le lesioni non visibili con la luce bianca. L'elaborato analizza il flusso di lavoro del reparto, preso in carico dal sistema informativo di endoscopia. Lo scambio di informazioni tra i diversi sistemi informativi deve avvenire utilizzando gli standard HL7 e DICOM, secondo le specifiche dettate dai profili di integrazione IHE. Nella parte finale del trattato è descritta l'architettura del sistema informativo di endoscopia e sono esposte le specifiche di integrazione informativa.
Resumo:
La materia ordinaria copre soli pochi punti percentuali della massa-energia totale dell'Universo, che è invece largamente dominata da componenti “oscure”. Il modello standard usato per descriverle è il modello LambdaCDM. Nonostante esso sembri consistente con la maggior parte dei dati attualmente disponibili, presenta alcuni problemi fondamentali che ad oggi restano irrisolti, lasciando spazio per lo studio di modelli cosmologici alternativi. Questa Tesi mira a studiare un modello proposto recentemente, chiamato “Multi-coupled Dark Energy” (McDE), che presenta interazioni modificate rispetto al modello LambdaCDM. In particolare, la Materia Oscura è composta da due diversi tipi di particelle con accoppiamento opposto rispetto ad un campo scalare responsabile dell'Energia Oscura. L'evoluzione del background e delle perturbazioni lineari risultano essere indistinguibili da quelle del modello LambdaCDM. In questa Tesi viene presentata per la prima volta una serie di simulazioni numeriche “zoomed”. Esse presentano diverse regioni con risoluzione differente, centrate su un singolo ammasso di interesse, che permettono di studiare in dettaglio una singola struttura senza aumentare eccessivamente il tempo di calcolo necessario. Un codice chiamato ZInCo, da me appositamente sviluppato per questa Tesi, viene anch'esso presentato per la prima volta. Il codice produce condizioni iniziali adatte a simulazioni cosmologiche, con differenti regioni di risoluzione, indipendenti dal modello cosmologico scelto e che preservano tutte le caratteristiche dello spettro di potenza imposto su di esse. Il codice ZInCo è stato usato per produrre condizioni iniziali per una serie di simulazioni numeriche del modello McDE, le quali per la prima volta mostrano, grazie all'alta risoluzione raggiunta, che l'effetto di segregazione degli ammassi avviene significativamente prima di quanto stimato in precedenza. Inoltre, i profili radiale di densità ottenuti mostrano un appiattimento centrale nelle fasi iniziali della segregazione. Quest'ultimo effetto potrebbe aiutare a risolvere il problema “cusp-core” del modello LambdaCDM e porre limiti ai valori dell'accoppiamento possibili.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.
Resumo:
La metafora del viaggio è una metafora 'pervasiva', utilizzata quotidianamente e spesso inconsapevolmente. Ma è altrettanto 'automatico' tradurre tali metafore in interpretazione simultanea? Attraverso lo studio di tale tipologia di metafore, tratte dai discorsi pronunciati durante le sessioni plenarie del Parlamento Europeo, e tratti dal corpus EPIC, e durante gli esami finali della Scuola Superiore di Lingue Letterature Traduzione e Interpretazione, se ne osserverà l'uso in italiano, in inglese e in spagnolo. Solo in seguito, sarà possibile prendere in considerazione le rese in interpretazione simultanea degli interpreti del Parlamento Europeo, i 'professionisti', e gli studenti che sostengono gli esami finali, i 'semi-professionisti'. Dalla ricerca sono emerse sostanziali differenze tra la lessicalizzazione delle metafore del viaggio in italiano, inglese e spagnolo che rendono la loro interpretazione in simultanea tutto fuorché semplice e automatica.
Resumo:
La piattaforma continentale della Sardegna nord-orientale si sviluppa sul margine passivo del bacino tirrenico di retroarco. Tramite i dati forniti da strumenti geofisici, quali l’ecoscandaglio a fascio multiplo (Multibeam) e i profili sismici Chirp Sub-bottom, è stato possibile lo studio di piattaforma, a profondità compresa tra 10 m e 135 m, ed interpretare la genesi di morfologie riferibili a processi sedimentari o strutture al di sotto del fondale marino. La piattaforma è stata tripartita in interna, centrale ed esterna e suddivisa in due aree (Area 1 e Area 2), per garantire una descrizione più dettagliata. La parte interna della piattaforma è la più ricca di elementi geomorfologici quali sistemi barriera-laguna, corpi sedimentari interpretati come frecce litorali (spit) sommersi, che si presentano singole o come sequenze che tendono a migrare verso l’attuale linea di costa della Sardegna. La porzione di piattaforma centrale ed esterna, invece, presenta una quantità modesta di morfologie. Nell’Area 2, la più meridionale, è stata individuata un’antica valle fluviale collegata alla sua estremità con quello che era il corrispondente delta o paleo-delta. Tramite i profili sismici CHIRP è stato osservato il basamento affiorante sul fondale marino ricondotto con il basamento ercinico che affiora nella zona a terra della Sardegna nord-orientale. Nell’insieme, tutti gli elementi interpretati, sono stati ricondotti a una piattaforma relitta costituita da antichi sistemi costieri oramai sommersi, sviluppati durante l’ultima trasgressione. In particolare nella zona più interna si è osservata una correlazione tra lo sviluppo di estesi sistemi costieri e i periodi di rallentamento della risalita del livello marino durante l’Olocene.
Resumo:
In questo studio vengono misurati e descritti nel dettaglio i canali sottomarini che si sviluppano sulle testate dei canyon presenti nella Baia di Milazzo (NE Sicilia) attraverso sezioni sismiche a riflessione e dati batimetrici di tipo Multibeam. In base alla creazione della carta geomorfologica della piattaforma continentale che copre l'intera area di studio (31 km2) ed alla correlazione dei profili sismici è stato possibile formulare ipotesi sulle dinamiche in atto nell'evoluzione geomorfologica delle testate dei canyon dell'area. L'evoluzione e la posizione attuale delle testate dei canyon sono condizionate dall'intensa attività tettonica della Sicilia nord-orientale caratterizzata da un forte uplift. Sono anche state descritte le relazioni tra l'assetto tettonico e le dinamiche fluviali poiché queste contribuiscono ai fenomeni osservati in ambiente sottomarino. Si è visto infine che le testate dei canyon sono in arretramento e che ciò produce un forte disequilibrio nel bilancio sedimentario delle spiagge dell'area causandone l'erosione.
Resumo:
L’obiettivo di questa tesi è approfondire le competenze sulle funzionalità sviluppate nei sistemi SCADA/EMS presenti sul mercato, così da conoscerne le potenzialità offerte: tutte le conoscenze acquisite servono a progettare uno strumento di analisi dati flessibile e interattivo, con il quale è possibile svolgere analisi non proponibili con le altre soluzioni analizzate. La progettazione dello strumento di analisi dei dati è orientata a definire un modello multidimensionale per la rappresentazione delle informazioni: il percorso di progettazione richiede di individuare le informazioni d’interesse per l’utente, così da poterle reintrodurre in fase di progettazione della nuova base dati. L’infrastruttura finale di questa nuova funzionalità si concretizza in un data warehouse: tutte le informazioni di analisi sono memorizzare su una base dati diversa da quella di On.Energy, evitando di correlare le prestazione dei due diversi sottosistemi. L’utilizzo di un data warehouse pone le basi per realizzare analisi su lunghi periodi temporali: tutte le tipologie di interrogazione dati comprendono un enorme quantità d’informazioni, esattamente in linea con le caratteristiche delle interrogazioni OLAP
Resumo:
La galleria del vento "Wintaer" (WINd Tunnel itAER) è una piccola galleria subsonica con flusso incomprimibile utilizzata per scopi didattici, dotata di ventola assiale "Varofoil" a passo variabile per la regolazione della velocità del flusso. Lo scopo di questo elaborato è analizzare la qualità del flusso della galleria al fine di determinare le prestazioni del sistema ed alcune proprietà fondamentali, ovvero l'uniformità spaziale del flusso attraverso l'acquisizione di profili di velocità e l'intensità di turbolenza. Dalla conduzione delle prove sperimentali è emerso che la galleria permette il raggiungimento di un range di velocità compreso tra i 16 m/s e i 43 m/s, ha poca uniformità spaziale e presenta alti livelli di turbolenza. Per quanto riguarda il range di velocità si sono riscontrate problematiche relative all'impossibilità di raggiungere le basse velocità (fino a 7 m/s) a causa, molto probabilmente, di blocchi meccanici che limitano l'intervallo di angoli di calettamento (e quindi il passo) delle pale della ventola, ed è quindi necessario l'intervento della ditta per effettuare un'operazione di revisione della ventola. Relativamente ai profili di velocità, acquisiti con tubo di Pitot, e all'intensità di turbolenza, acquisita con anemometro a filo caldo, è emerso che i risultati sono stati disturbati da errori introdotti a causa dell'instabilità termica della galleria, ovvero un aumento progressivo di temperatura nell'impianto. Tale instabilità può essere risolta rimettendo in funzione l'unità di scambio di calore di cui la galleria è equipaggiata. L'attendibilità dei risultati ottenuti è quindi condizionata dall'instabilità termica, dunque, per una più preciso studio della qualità del flusso è necessario effettuare le prove sperimentali in condizioni di stabilità termica, la quale sarà essa stessa oggetto di analisi una volta rimesso in funzione il sistema di raffreddamento. Infine sono proposte soluzioni per il miglioramento della geometria dell'impianto, poco efficiente, in particolare per quanto riguarda i raddrizzatori di filetti fluidi (honeycombs) e il raccordo tra convergente e camera di prova, per il passaggio dalla sezione circolare del convergente a quella rettangolare della camera di prova. Si suggerisce lo spostamento di tale raccordo a monte della camera di calma, l'adozione di un convergente a sezione rettangolare e di una camera di calma a sezione rettangolare con honeycombs esagonali e l'aggiunta di reti per la diminuzione della turbolenza del flusso.
Resumo:
Negli ultimi anni va sempre più affermandosi l’idea che nei test a fatica utilizzati in ambito industriale per testare la resistenza di numerosi prodotti, riprodurre profili vibratori con distribuzioni gaussiane non sia sufficientemente realistico. Nell’indagine sperimentale riportata in questo trattato vengono confrontati gli effetti generati da sollecitazioni leptocurtiche ottenute da misurazioni reali, con profili vibratori gaussiani a parità di RMS e forma della PSD (Power Spectral Density) verificando la validità della “Papoulis rule”. A partire da questi profili vibratori si è effettuata una progettazione ad hoc dalla quale sono stati ricavati dei provini piatti in lega di alluminio a cui è collegata una massa ausiliaria. Quest’ultimi montati a sbalzo su uno shaker elettrodinamico, sono caratterizzati da una variazione di sezione che localizza la sezione critica in prossimità dell’incastro. I provini sono stati inoltre caratterizzati attraverso prove a trazione e test accelerati a fatica, ricavandone la caratteristica a trazione del materiale ed il diagramma di Wohler. In seguito alla descrizione di tali prove viene riportata un’analisi dei provini sollecitati da due profili vibratori, uno gaussiano e uno ad elevato valore di kurtosis, monitorando tramite l’impiego di accelerometri i valori dell’eccitazione e la risposta. Vengono inoltre verificati i valori delle deformazioni dovute alle sollecitazioni imposte collocando due estensimetri in corrispondenza della sezione critica di due provini (uno per ogni tipologia di input).
Resumo:
Il presente elaborato offre una panoramica generale del Remote Interpreting (RI) con l'obiettivo di strutturare un ipotetico seminario da tenere alla SLLTI (Scuola di Lingue e Letterature, Traduzione e Interpretazione, ex SSLMIT) di Forlì, in collaborazione con l'azienda VEASYT, spin-off dell’università Ca' Foscari di Venezia, per introdurre l'argomento agli studenti del corso di laurea in Interpretazione di Conferenza. A tal scopo la tesi è stata suddivisa in dieci capitoli, ognuno dei quali analizza una sfaccettatura dell'interpretazione da remoto; la prima parte verte sull'evoluzione storica delle nuove tecnologie nel mondo dell'interpretariato, con particolare attenzione all'introduzione degli impianti per l'interpretazione simultanea e delle Tecnologie dell'Informazione e della Comunicazione (TIC); si presentano inoltre i principali tipi di interpretazione a distanza, seguendo la loro comparsa in ordine cronologico, e i dispositivi necessari per effettuare una sessione di video-interpretazione. Nella seconda parte si descrivono alcuni ambiti di applicazione del RI (RI per non udenti, in ambito giuridico, in ambito medico-sanitario) e si illustra la situazione a livello mondiale passando in rassegna, a titolo di esempio, alcune aziende presenti in Australia, Stati Uniti, Germania, Austria e Gran Bretagna. Nella terza parte si presentano alcuni regolamenti e disposizioni raccomandati da associazioni di categoria e dalle istituzioni europee e si analizzano i principali vantaggi e svantaggi del RI. Nella quarta parte si mettono a confronto le caratteristiche e il tipo di formazione di un interprete che lavora in situ con quelle di un interprete che lavora a distanza, illustrando alcune strategie sviluppate dagli interpreti durante le sessioni di RI. L'ultima parte riguarda l'azienda VEASYT, la quale viene presentata come case study italiano, descrivendo la sua piattaforma per il servizio di interpretariato da remoto e la modalità di reclutamento degli interpreti. In conclusione si trova la proposta di seminario da tenere ipoteticamente alla SLLTI di Forlì, che viene articolata seguendo la successione dei capitoli precedenti.
Resumo:
Il lavoro di questa tesi ha previsto l'acquisizione e l'elaborazione di dati geofisici al fine di determinare la risposta sismica di tre siti della Rete Accelerometrica Nazionale (RAN), collocandosi all'interno del progetto sismologico S2-2014 Constraining Observations into Seismic Hazard gestito dal Dipartimento di Protezione Civile Nazionale e dall’Istituto Nazionale di Geofisica e di Vulcanologia. Tale necessità nasce dal fatto che il più delle volte le informazioni per la corretta caratterizzazione geofisica dei siti ospitanti le stazioni accelerometriche risultano essere insufficienti, rendendo così i dati acquisiti non idonei per l'utilizzo in sede di calcolo delle leggi di attenuazione dalle quali successivamente vengono derivate le mappe di pericolosità sismica a livello nazionale e locale. L'obbiettivo di questo lavoro di tesi è stato quello di determinare l'eventuale presenza di effetti di sito o effetti di interazione suolo-struttura, per tre stazioni ubicate in Friuli-Venezia Giulia (codici stazioni MAI, TLM1 e BRC), capaci di amplificare il moto del terreno nella parte di suolo compresa fra il bedrock sismico (inteso come strato che non amplifica) e il piano campagna. Le principali tecniche utilizzate sono le seguenti: HVSR ossia rapporto spettrale della componente orizzontale su quella verticale da misure di rumore ambientale acquisite e EHV ovvero rapporto spettrale della componente orizzontale su verticale da registrazione di terremoti scaricate dal database accelerometrico italiano ITACA. I risultati delle due tecniche sono stati poi confrontati al fine di verificare un'eventuale congruenza, portando alle seguenti conclusioni. La caratterizzazione della stazione TLM1 ha portato alla importante conclusione che il sito non è idoneo per l’acquisizione di dati accelerometrici da utilizzare per il calcolo di leggi predittive o di attenuazione. La stazione accelerometrica è ospitata all’interno di un box in lamiera su una collina nel comune di Verzegnis (UD). Il problema principale che riguarda questo sito è la vicinanza della diga Ambiesta e del relativo invaso. La stazione di BRC è collocata all’interno di una cabina di trasformazione dell’ENEL sul lato destro del torrente Cellina, al suo ingresso nel lago di Barcis (PN). Le condizioni topografiche della zona, molto impervie, non consentono la corretta acquisizione dei dati. Un ulteriore fattore di disturbo è dato dall’interazione suolo-struttura, causata dalla cabina ENEL in cui è alloggiata la strumentazione. La caratterizzazione della stazione MAI collocata all'interno di una cabina ENEL nel centro del comune di Majano (UD) ha portato alla conclusione che questa è l'unica delle tre stazioni considerate capace di acquisire dati utilizzabili per il processo di validazione per le stime di pericolosità sismica. Questo perché le condizioni topografiche dell’area, pianura con stratificazione 1D, hanno permesso di sfruttare a pieno le potenzialità delle metodologie utilizzate, consentendo anche la ricostruzione di profili di velocità delle onde di taglio S con i quali è stata assegnata la categoria C del suolo previsto dall'approccio semplificato presente nelle NTC08.