1000 resultados para trattamento dati personali giuridici sensibili privacy tutela del lavoratore video sorveglianza
Resumo:
Oggi l’esigenza di permettere all’utente di riuscire a formulare interrogazioni su database a grafo in maniera più semplice e soprattutto intuitiva ha portato gli istituti di ricerca a proporre metodi di interrogazione visuale. Uno dei sistemi che sono stati proposti è GraphVista. Tale sistema si basa sull’idea di dividere l’interrogazione in due macro-fasi. La prima fase permette di avvicinarsi al risultato richiesto escludendo da successive analisi dati che sicuramente non potranno far parte del risultato finale, mentre la seconda fase permette all’utente di essere protagonista. Infatti ad esso è concessa la possibilità di manipolare a proprio piacimento i risultati ottenuti dalla prima fase al fine di “ricercare” da sé le informazioni desiderate. Il tutto viene supportato grazie a un’interfaccia intuitiva ed efficace che permette all’utente di navigare interattivamente all’interno di una base di dati a grafo. Le caratteristiche dell’interfaccia e la possibilità di formulare interrogazioni visuali fanno in modo che l’utente non necessiti di conoscere alla perfezione un linguaggio di query specifico. Nel corso di questa tesi viene descritto il sistema GraphVista e la tecnologia sulla quale si fonda. Infine, viene effettuata una comparazione sull’efficacia e la semplicità d’uso del sistema GraphVista rispetto alla formulazione di query tramite un linguaggio standard come SPARQL.
Resumo:
La Chemical Vapor Deposition (CVD) permette la crescita di sottili strati di grafene con aree di decine di centimetri quadrati in maniera continua ed uniforme. Questa tecnica utilizza un substrato metallico, solitamente rame, riscaldato oltre i 1000 °C, sulla cui superficie il carbonio cristallizza sotto forma di grafene in un’atmosfera attiva di metano ed idrogeno. Durante la crescita, sulla superficie del rame si decompone il metano utilizzato come sorgente di carbonio. La morfologia e la composizione della superficie del rame diventano quindi elementi critici del processo per garantire la sintesi di grafene di alta qualità e purezza. In questo manoscritto si documenta l’attività sperimentale svolta presso i laboratori dell’Istituto per la Microelettronica e i Microsistemi del CNR di Bologna sulla caratterizzazione della superficie del substrato di rame utilizzato per la sintesi del grafene per CVD. L’obiettivo di questa attività è stato la caratterizzazione della morfologia superficiale del foglio metallico con misure di rugosità e di dimensione dei grani cristallini, seguendo l’evoluzione di queste caratteristiche durante i passaggi del processo di sintesi. Le misure di rugosità sono state effettuate utilizzando tecniche di profilometria ottica interferometrica, che hanno permesso di misurare l’effetto di livellamento successivo all' introduzione di un etching chimico nel processo consolidato utilizzato presso i laboratori dell’IMM di Bologna. Nell'ultima parte di questo manoscritto si è invece studiato, con tecniche di microscopia ottica ed elettronica a scansione, l’effetto di diverse concentrazioni di argon e idrogeno durante il trattamento termico di annealing del rame sulla riorganizzazione dei suoi grani cristallini. L’analisi preliminare effettuata ha permesso di individuare un intervallo ottimale dei parametri di annealing e di crescita del grafene, suggerendo importanti direzioni per migliorare il processo di sintesi attualmente utilizzato.
Resumo:
L'Italia è spesso sede di eventi d'intensa precipitazione, frequentemente associati ad alluvioni con conseguente perdita di vite umane e gravi danni economici. È quindi di fondamentale importanza poter prevedere questi eventi con un adeguato anticipo. Allo stato attuale, i modelli meteorologici non permettono sempre di raggiungere tale obbiettivo e, di conseguenza, è in atto un'intensa attività di ricerca al fine di di renderne più accurata la previsione, sia attraverso il miglioramento dei modelli stessi, sia sviluppando l'assimilazione dati, la quale riduce l'incertezza della condizione iniziale da cui parte la previsione. All'interno di questo contesto, la tesi si prefigge l'obiettivo di studiare gli effetti dell'assimilazione di dati di precipitazione, effettuata mediante uno schema di nudging, nel modello non idrostatico MOLOCH. Al fine di ottimizzare lo schema e di valutarne l'impatto, sono stati simulati tutti gli eventi di maltempo di ottobre e novembre del 2014 che hanno interessato la Liguria, area frequentemente soggetta ad alluvioni. Dalla sistematica verifica dei risultati, effettuata sia qualitativamente che mediante numerosi metodi statistici (tra cui la tecnica SAL basata sull'individuazione dei nuclei di precipitazione), si riscontra un generale miglioramento della previsione della precipitazione anche se limitato alle prime ore dopo la fine del periodo di assimilazione. L'impatto dello schema di nudging varia a seconda dell'evento e, in particolare, si osserva una certa correlazione tra il miglioramento ottenuto e la tipologia di evento, come descritto dalla teoria dell'equilibrio convettivo e come riportato in alcuni studi analoghi recentemente comparsi in letteratura. La ricaduta del miglioramento della previsione meteorologica è stata valutata anche in termini di impatti al suolo accoppiando il modello meteorologico con il modello idrologico utilizzato dal Centro Funzionale della Regione Liguria, con risultati abbastanza positivi.
Resumo:
Il progetto si concentra principalmente sullo studio formale e funzionale del carter di una nuova tipologia di macchina industriale per il trattamento superficiale (coating) continuo di prodotti famaceutici. I punti di interesse sono stati: la scelta del materiale, la forma del carter, l'interazione con l'utente, la visualizzazione della macchina finita, la proposta di un piano comunicativo e di una strategià d'identità del prodotto.
Resumo:
Lo studio del polimorfismo gioca un ruolo fondamentale in diversi ambiti di ricerca, con applicazioni importanti nel campo dei semi conduttori organici e dei farmaci, dovuto al fatto che i diversi polimorfi di una sostanza presentano proprietà chimico-fisiche distinte. Questo lavoro di tesi si è focalizzato sullo studio del polimorfismo del paracetamolo, principio attivo (API) di diversi farmaci molto utilizzati, attraverso l’utilizzo della microscopia Raman. La microscopia Raman è una tecnica efficace per l’indagine del polimorfismo di materiali organici ed inorganici, in quanto permette di monitorare la presenza di diverse fasi solide e le loro trasformazioni su scala micrometrica. Le differenze di struttura cristallina che caratterizzano i polimorfi vengono analizzate attraverso gli spettri Raman nella regione dei modi reticolari (10-150 cm^{-1}), le cui frequenze sondano le interazioni inter-molecolari, molto sensibili anche a lievi differenze di impaccamento molecolare. Con questa tecnica abbiamo caratterizzato le forme I, II, III (quella elusiva) e diverse miscele di fase di paracetamolo su campioni ottenuti con numerose tecniche di crescita dei cristalli. Per questa tesi è stato svolto anche uno studio computazionale, attraverso metodi Density Functional Theory (DFT) per la molecola isolata e metodi di minimizzazione dell’energia e di dinamica reticolare per i sistemi cristallini. Abbiamo inoltre verificato se il modello di potenziale di letteratura scelto (Dreiding [Mayo1990]) fosse adatto per descrivere la molecola di paracetamolo, le strutture dei suoi polimorfi e i relativi spettri vibrazionali.
Resumo:
Il lavoro di tesi ha l'obiettivo di fornire un quadro conoscitivo preliminare della Conoide Enza, importante corpo idrico sotterraneo situato nella provincia di Reggio-Emilia. Unitamente viene data una sua rappresentazione cartografica digitale attraverso software GIS, utile a geo-referenziare l'acquifero. Tale lavoro permette di convogliare ed archiviare in un sistema informativo territoriale le osservazioni e i dati necessari a successive indagini quantitative sulla Conoide. In tal senso, viene fornito un esempio di modellazione di flusso nell'acquifero tramite software MODFLOW, così da mostrare l'analisi di uno scenario di prelievo a partire dai dati forniti. In particolare, è simulato il comportamento dell'acquifero in presenza di un pozzo di estrazione, valutando il conseguente effetto indotto sulla piezometria.
Resumo:
Nell’ottica della pianificazione di interventi di Retrofit Energetico che possano migliorare l’efficienza energetica del comparto edilizio-residenziale, in relazione agli obiettivi della vigente normativa energetica di ispirazione comunitaria, obiettivo della tesi è la ricerca e validazione di strumenti economici che possano guidare le committenze nella scelta del migliore rapporto tra costi e benefici delle opere. La tesi affronta l’approccio dell’analisi del Costo Globale come previsto dalla normativa comunitaria formato dalla direttiva 2010/31/UE sulla prestazione energetica degli edifici, dal regolamento delegato UE n°244 del 16 gennaio 2012 e dalla norma EN 15459 del 2008. Obiettivo è la comparazione di tre interventi alternativi di retrofit energetico per un edificio ad uso misto sito nel centro di Bologna. Si tratta di interventi mirati all’efficientamento e all’abbattimento del fabbisogno energetico per la climatizzazione invernale dello stabile, con gradi successivi di approfondimento, come definiti dalla attuale normativa (ristrutturazione importante di primo livello, di secondo livello e riqualificazione energetica). Lo studio si sviluppa definendo le criticità dello stato attuale del costruito e i possibili interventi migliorativi necessari. Definiti i pacchetti tecnici delle soluzioni di intervento si è passato alla ricerca dei dati necessari comprendenti dati finanziari su tassi di sconto e di inflazione e sui costi di investimento iniziali, costi di gestione e manutenzione, costi di sostituzione e costi energetici relativi alle varie alternative di progetto. I risultati dell’analisi economica delle alternative progettuali, nel periodo di studio considerato, vengono poi confrontati con i dati relativi all’impatto energetico e delle emissioni di CO2 e con le relative classi energetiche.
Resumo:
La disciplina del Risk Management assume recentemente un significato ed un peso crescenti nel panorama delle organizzazioni pubbliche e private. Nel campo delle costruzioni pubbliche, in particolare, l’attuazione di processi strutturati di Gestione del Rischio potrebbe portare ad un efficientamento significativo del processo di costruzione e gestione. Obiettivo di questa tesi è verificare in che modo i risultati di un’applicazione strutturata di un processo di Gestione del Rischio possono essere impiegati dal gruppo di management per perseguire scelte più consapevoli, precise e circostanziate rispetto ai metodi tradizionali di gestione del processo. L’analisi parte da uno studio comparativo dei metodi e delle norme tecniche di Risk Management proposte in ambito internazionale. I risultati ottenuti vengono poi applicati al caso studio relativo al progetto di insediamento del Tecnopolo di Bologna presso l’area nota come Ex-Manifattura Tabacchi. L’applicazione delle tecniche al caso di studio è strutturata come una esecuzione completa del processo di Valutazione del Rischio. La fase di Identificazione viene svolta tramite un’analisi della letteratura, la sottoposizione al giudizio degli esperti, e si conclude con una categorizzazione dei rischi mediante Risk Breakdown Structure. La fase di Quantificazione del Rischio è attuata tramite una prima fase di analisi qualitativa con la somministrazione di un questionario on-line ad una platea di soggetti competenti; seguita da un’analisi quantitativa svolta con il software “RiskyProject®” per realizzare una analisi di Montecarlo ed analisi di sensitività. Al termine vengono esaminate alcune possibili misure di trattamento specifiche per un rischio definito prioritario. I risultati proposti mostrano come sia possibile ottenere in fase preliminare una descrizione consapevole delle incertezze del progetto, e che tale consapevolezza può essere utilizzata con lo scopo di migliorare la qualità e l’efficacia dell’intero processo.
Resumo:
En virtud del art. 3.1 de la Ley Orgánica 1/1982, de 5 de mayo, cuando los menores tengan suficiente madurez deberán consentir por sí mismos las intromisiones en sus derechos al honor, intimidad y propia imagen. Sin embargo, atendiendo al art. 4 de la Ley Orgánica de Protección Jurídica del Menor, cuando la intromisión tenga lugar en un medio de comunicación seguirá siendo ilegítima, aun consentida por un menor maduro, si se considera contraria a su honor e intereses, debiendo intervenir en su defensa el Ministerio Fiscal. Esta regulación plantea diversas cuestiones relacionadas con la protección de los derechos al honor, intimidad y propia imagen del menor con suficiente madurez —en particular, sobre la función del fiscal como garante de estos derechos y el papel que se otorga al consentimiento del menor— que son objeto de estudio del presente trabajo.
Resumo:
Durante l’esecuzione di prove al banco su motori a combustione interna vengono acquisiti dati contenenti le caratteristiche del motore testato al regime di funzionamento scelto, sotto l’azione di alcuni o numerosi parametri variabili in base ai risultati che si vogliono ottenere dalla prova stessa ed in determinate condizioni ambientali. Per questo motivo è di fondamentale importanza disporre di uno strumento che consenta una rapida, ma allo stesso tempo precisa e quanto più possibile completa visualizzazione ed elaborazione di tali dati. A tale scopo con questo elaborato si vogliono valutare diverse soluzioni, in termini di software, per l’analisi di dati sperimentali, con particolare attenzione rivolta agli ambienti NI LabVIEW, The MathWorks MATLAB e NI DIAdem, e ad alcuni strumenti attualmente in uso, cercando sempre il giusto compromesso tra necessità riscontrate in ambito visualizzazione ed analisi dati ed il contenimento dei costi. Vengono, in seguito, esposte le motivazioni che hanno portato alla scelta di DIAdem per implementare le procedure di post-elaborazione dei dati.
Resumo:
Lo scopo di questo lavoro è stato individuare una possibile correlazione tra le condizioni ambientali e la presenza di Escherichia coli in vongole veraci. I dati sono relativi a campioni raccolti nel periodo 2007-2015 nella zona Sacca di Goro. Essi sono stati messi in relazione con alcuni parametri quali: salinità dell’acqua, temperatura, ossigeno di fondo, pH e livello del fiume Po di Volano. Sono stati presi in considerazione più di 523 campioni, in cui i conteggi di E. coli, mediante metodo MPN, sono stati suddivisi in tre categorie: cariche basse (<50 MPN/100g); intermedie (50-230 MPN/100g); alte, ovvero non conformi al regolamento europeo (>230 MPN/100g). La significatività della relazione tra E. coli e le variabili considerate è stata valutata attraverso il test Χ2 e il test di Kruskal-Wallis. Il test Χ2, è stato attuato ponendo in relazione anno, mese e stagione. In esso non è stato registrato nessun risultato significativo. L’analisi della varianza tramite test di Kruskal-Wallis ha evidenziato che gli unici risultati ottenuti, dando luogo ad una differenza significativa, sono relativi ai valori di salinità, dove in presenza di valori più bassi si osserva un numero maggiore di campioni con carica superiore al limite di legge. I dati ottenuti ponendo in relazione la temperatura delle acque e il livello del fiume Po di Volano non sono risultate significativamente diverse fra loro. Questi risultati sono chiaramente correlati al processo di depurazione delle vongole veraci che abbassano la carica microbica, ma ciò è correlato anche ai miglioramenti dei controlli delle acque reflue della Pianura Padana negli ultimi decenni, inoltre l’assenza di relazioni può essere imputata al fatto che la Sacca di Goro è un tratto di mare relativamente chiuso e quindi in qualche modo protetto dalle fluttuazioni stagionali di questi parametri, in una sorta di omeostasi ambientale.
Resumo:
In anni recenti il potenziale degradativo dei lieviti nelle bevande ha assunto un’importanza crescente a causa degli importanti danni economici ad essi associati e i produttori sono sempre più attenti a queste problematiche, anche in relazione alla tendenza di ridurre i trattamenti termici, in una strategia di risparmio energetico e di riduzione del danno termico organolettico. L’obiettivo dell’elaborato è stato quello di testare la termoresistenza di diversi ceppi di lieviti che possono costituire un rischio per bevande di fantasia: sette appartenenti alla specie Saccharomyces cerevisiae, tre Zygosaccharomyces, un ceppo di Saccharomycodes ludwigii, uno di Schizosaccharomyces pombe e uno di Kluyveromyces marxianus. Le prove di termoresistenza sono state condotte in vitro utilizzando terreno di coltura impiegando temperature di 55°C, 60°C e 65°C e i dati sono stati modellati con l’equazione di Weibull per ottenere le curve di morte termica dei diversi ceppi. Questo modello permette di tenere conto dell’approccio vitalistico dell’interazione tra temperatura e cellula e descrive l’inattivazione microbica come risultato del fallimento delle cellule nel contrastare le condizioni ostili dovute all’alta temperatura. I risultati hanno dimostrato che i ceppi erano caratterizzati da termoresistenza molto variabile. In generale, tra le specie non Saccharomyces, i più resistenti erano K. marxianus e Sch. Pombe mentre tra i Saccharomyces il più resistente era il ceppo SPA, isolato in uno stabilimento di bevande e responsabile di un incidente industriale che ha portato all’alterazione di oltre 500000 bottiglie di bibite gassate. Questo screening preliminare per la valutazione della termoresistenza ad un potenziale trattamento industriale ha permesso di individuare i lieviti più resistenti che saranno poi oggetto di un successivo studio in cui verranno tenuti presenti altri fattori tecnologici e di prodotto per poi potersi muovere in un ambiente industriale.
Resumo:
La percezione coerente del mondo esterno è basata sull'integrazione della grande varietà di input provenienti dalle differenti modalità sensoriali. Il processo di elaborazione delle diverse informazioni recepite, fin dalle prime fasi, è caratterizzato da meccanismi ancora in fase di studio, che, però, possono essere rilevati tramite l’utilizzo di modelli computazionali basati su una rete neurale specifica. In questa Tesi si è preso in considerazione il modello neurale elaborato per simulare gli aspetti spaziali e temporali di illusioni audiovisive, quali l’effetto ventriloquismo e la fission illusion, in modo da poter svolgere un’analisi computazionale del ventriloquismo temporale. Il principale effetto di questo fenomeno consiste nello spostamento dell’istante di occorrenza di uno stimolo visivo verso quello di un segnale acustico presentato in prossimità temporale. Il modello, basato principalmente sul fatto che i neuroni visivi e uditivi comunicano tramite sinapsi eccitatorie e che i campi recettivi spazio-temporali sono differenti per le due modalità sensoriali, è in grado di riprodurre i principali effetti dell’integrazione temporale tra gli stimoli, dando luogo all'effetto illusorio. Si è adattato il modello in modo da rilevare, quantificare e misurare l’estensione del ventriloquismo temporale per diverse disposizioni spaziali e temporali di presentazione degli stimoli. L’analisi è stata ripetuta variando i principali parametri, in modo da rilevare la sensibilità del modello e, quindi, fare valutazioni sui fattori particolarmente influenzanti il fenomeno, confrontando poi i risultati con i dati in letteratura.
Resumo:
In questa tesi viene studiato il comportamento visivo del ciclista durante la guida in ambiente urbano diversificato, così da esaminare quali siano le diverse strategie visive adottate dal conducente della bicicletta, in rapporto al contesto in cui si trova. L’analisi del comportamento visivo è stata effettuata mediante l’esecuzione di test su campo, utilizzando il Mobile-Eye Detector, grazie al quale si sono potuti studiare i filmati relativi alle prove compiute da 12 utenti. In seguito ad una fase primaria di elaborazione generale dei dati e di scarto di quelli non ritenuti validi ai fini dello studio, sono state rilevate le fissazioni, le saccadi e i loro relativi tempi. In particolare, studiando i video, si è creato un database in cui vengono analizzate una ad una (fotogramma per fotogramma) le fissazioni e vengono individuati gli elementi ad esse relativi, quali: goal, target, pedoni, ciclisti, veicoli, ammaloramenti della pavimentazione, edifici, segnaletica verticale e orizzontale e intersezioni. Tali elementi sono quelli che attirano maggiormente l'attenzione del ciclista sia da un punto di vista pratico, ai fini della conduzione del mezzo, sia a fini di "svago". Inoltre sono state individuate delle aree di dispersione visiva, ovvero zone su cui è maggiormente ricaduto lo sguardo dei partecipanti all’esperimento: esse sono state studiate, analizzandone le dimensioni e mettendole in relazione col tipo di tragitto e con gli elementi fissati. In questo modo si è cercato di dare un'interpretazione del comportamento visivo del ciclista, sottoposto a tragitti con caratteristiche diverse. In seguito a tale analisi, è stata verificata la compatibilità tra i risultati ottenuti mediante i filmati visionati e le risposte date dai partecipanti nei questionari, proposti al termine della prova, finalizzati ad attestare la percezione soggettiva del ciclista.