43 resultados para Diritti umani
Resumo:
L’idea del presente elaborato è nata da una curiosità ed interesse personale di un corso svolto in Erasmus presso la Fachhochschule Köln. Ho subito pensato di approfondire il tema dell’interprete giudiziario e giuridico come figura determinante sia nel processo penale che nella società. Per dare un quadro generale della situazione ho deciso di dividere la tesi in tre capitoli. Nel primo capitolo spiegherò il concetto di interpretazione, attività interlinguistica tesa a creare una comunicazione tra persone di diverse lingue, presentando le varie tipologie e facendo un accenno alla figura del mediatore linguistico-interculturale. Nel secondo capitolo, porrò l’attenzione sul diritto all’assistenza linguistica dell’imputato e della vittima alloglotta durante il processo penale con l’obiettivo di evidenziare le tutele linguistiche europee e in particolar modo italiane. Mi concentrerò, inoltre, sulla mancanza di una formazione adeguata della professione, in Italia, con lo scopo di delineare la necessità di agire di fronte a una situazione di diritti negati, di ruoli misconosciuti, di assenza di consapevolezza e di conoscenza. Nel terzo ed ultimo capitolo mi soffermerò sull’interpretazione giuridica analizzando il video pedagogico di un interrogatorio della questura di Forlì-Cesena, tratto dal progetto europeo ImPLI - Improving Police and Legal Interpreting, per mettere in evidenza le tecniche di interrogatorio utilizzate e le difficoltà che si presentano nel mediare per le indagini di polizia.
Resumo:
L’estrema importanza degli aspetti neurologici che riguardano la vita dell’uomo, unitamente all’elevato grado di invalidità che le malattie del sistema nervoso sono in grado di provocare, ha portato nel corso del tempo gli studiosi a sviluppare metodologie di intervento sempre più accurate e specifiche nel tentativo di far fronte a queste complesse situazioni. Il sempre più frequente ricorso alle cure farmacologiche e alla psicoterapia ha saputo ben presto però sollevare numerose perplessità in merito all’efficacia di tali approcci. È a partire da questi presupposti che è stato possibile portare avanti nuovi studi sulla tDCS, un particolare tipo di apparecchiatura biomedicale basata sul concetto di elettrostimolazione cerebrale. Questo lavoro si propone di descrivere la capacità della tDCS di intervenire direttamente sui meccanismi che comunemente si verificano all’interno del cervello umano tramite il rilascio di corrente, nonché i numerosi miglioramenti che sono stati rilevati in seguito al suo utilizzo su soggetti umani. Si propone inoltre di mettere in evidenza le grandi potenzialità che essa è in grado di manifestare relativamente ai processi cognitivi, partendo dagli aspetti che riguardano il linguaggio, passando attraverso quelli propri della memoria e della conoscenza, fino ad arrivare a rivestire un ruolo di primo piano anche all’interno delle sfaccettature tipiche degli stati umorali.
Resumo:
La ricerca biomedica è arrivata attualmente a un bivio che vede contrapposte sperimentazione in vitro e in vivo. Per ovviare a questo problema è nata la sperimentazione su biochip che, attraverso l'impiego di apparecchiature dedicate, permette di ottenere misure su campioni che ripropongano le condizioni fisiologiche dei tessuti umani in vivo superando il problema della sperimentazione animale e quello delle misure in vitro, che non rispecchiano le condizioni reali delle cellule in esame. Il perfezionamento dell'apparecchio in questione richiede la comparazione delle condizioni create nel biochip con quelle riscontrate nei tessuti cellulari di pazienti umani. Il fine della comparazione è quello di riuscire ad eguagliare i due sistemi per poter sfruttare il dispositivo come un fantoccio su cui verificare gli effetti di farmaci in fase sperimentale e misurare grandezze con un grado di precisione molto più alto rispetto ai metodi messi in opera fino a ora. Questo lavoro di tesi propone uno studio preliminare sulla fattibilità di misure di concentrazioni di ossigeno e glucosio attraverso i radiofarmaci 64Cu-ATSM e 18F-FDG impiegati su pazienti sottoposti a PET-CT. Nello specifico, dopo aver illustrato i processi cellulari che coinvolgono il glucosio e l'ossigeno all'interno dei tessuti umani, si passa a descrivere le metodologie di misura impiegate, nell'ambito dell'imaging diagnostico, e le caratteristiche che motivano la scelta dei radiofarmaci utilizzati come mezzo di contrasto. Successivamente viene considerato un modello compartimentale a due tessuti per descrivere la cinetica dei radiofarmaci e per ottenere una stima delle concentrazioni da rapportare alle grandezze rilevate con la PET. Infine sono tracciati dei profili sulle slice dei volumi PET elaborati che diano dei valori di concentrazione delle molecole studiate.
Resumo:
Il percorso del riconoscimento legislativo del diritto all’equo processo affonda le sue radici nel 1215, anno di promulgazione della Magna Charta Libertatum, e culmina, in ambito europeo, nel 1950, con la firma della Convenzione europea per la salvaguardia dei Diritti dell’Uomo e delle Libertà fondamentali (CEDU). In questo documento viene sancito che un prerequisito essenziale per garantire a tutti gli individui il diritto al fair trial è il servizio di assistenza linguistica gratuita, le cui specificità vengono descritte nella direttiva 2010/64/EU.Nel Regno Unito, già nei primi anni ’90 furono introdotte le prime misure per garantire la qualità e la competenza degli interpreti e dei traduttori in ambito giuridico-giudiziario: nel 1994 fu istituito il National Register for Public Service Interpreters (NRPSI), il registro nazionale a cui erano iscritti tutti gli interpreti per i servizi pubblici che erano in possesso di determinate qualifiche. Per assicurare che solo gli interpreti del NRPSI fossero impiegati in ambito penale, nel 1997 fu introdotto il National Agreement, un accordo non vincolante che regolava l’uso dei servizi linguisti nel Criminal Justice System. La prima versione fu modificata nel 2002 e nel 2007. In seguito ad alcune revisioni per conto del Ministero della Giustizia, nel 2010 fu avviato il processo di esternalizzazione dei servizi linguistici, che si concluse nel 2011 con la stipula del National Framework Agreement tra il Ministero della Giustizia e l’azienda Applied Language Solutions (ALS), che poco prima dell’avvio fu acquisita da un’azienda più grande, CAPITA TI. La scarsa esperienza del Ministero in questo settore, unita alle promesse poco realistiche e alla mancanza di trasparenza di ALS furono le cause principali dei numerosi problemi all’avvio del nuovo contratto che si ripercossero notevolmente sul funzionamento del sistema di giustizia. Dopo l’avvio di un piano di emergenza e un monitoraggio del Ministero, la situazione ha iniziato a ristabilirsi, senza raggiungere però i livelli pre-riforma. A Novembre 2015 è stata indetta la nuova gara di appalto: le minacce di nuovi tagli ai tariffari degli interpreti da una parte, e la partecipazione del NRPSI alla gara d’appalto come candidato al ruolo di ente supervisore della qualità dei servizi linguistici dall’altra, ci pongono di fronte a due scenari futuri molto diversi. L’elaborato è strutturato in quattro capitoli: il primo tratterà del percorso storico che ha portato al riconoscimento del diritto al processo equo, e degli strumenti comunitari a garanzia dell’assistenza linguistica gratuita. Nel secondo capitolo parleremo della situazione inglese, quindi la nascita del NRPSI e del National Agreement e le varie revisioni. Nel terzo prenderemo in esame la riforma del 2011 del Ministero della Giustizia britannico, analizzando diversi documenti: il rapporto della Commissione giustizia della Camera dei comuni 2013, quello del National Audit Office 2012, il sondaggio Involvis 2013, il rapporto indipendente OPTIMITY-MATRIX 2014.
Resumo:
L’obiettivo della tesi è definire un modello che permetta di realizzare applicazioni che integrino diverse tecnologie come la realtà aumentata, pervasive computing e Internet of Things. In particolare si analizza la nozione di "augmentation" che indica un’estensione e un arricchimento delle funzionalità e delle informazioni che possono essere percepite dai sensi umani e che può essere ritrovata, in modo diverso, nelle tecnologie trattate. A tal proposito, si introduce l’idea di augmented world, il cui scopo è quello di realizzare un livello aumentato collegato ad un livello fisico, attraverso il quale permettere l’interazione tra elementi virtuali ed elementi fisici. In seguito, tramite un'analisi tassonomica si vogliono individuare le caratteristiche ed i requisiti fondanti degli ambiti applicativi trattati per poter definire un modello che possa essere utilizzato come riferimento per le diverse tipologie di applicazioni. Infine il modello proposto è stato applicato a diversi casi di studio che spaziano tra i principali contesti applicativi in cui vengono utilizzate le tecnologie illustrate. La modellazione è fatta prescindendo da alcuni aspetti relativi alla comunicazione o alla sincronizzazione tra livello reale e livello aumentato, in quanto l’obiettivo è esporre una prima validazione del modello che permetta di riscontrarne l’adeguatezza ed eventuali limiti per una futura raffinazione.
Resumo:
"L'uomo è una creatura essenzialmente linguistica": noi dipendiamo dalla lingua. Questo rapporto di reciproca dipendenza è innegabile: cosa ne sarebbe di noi umani senza la lingua, e come farebbe a sussistere la lingua senza il fattore umano? La creatività, incarnata in ambito linguistico proprio dai parlanti, svolge un ruolo chiave e assicura, oltreché un (auspicabile) tratto sempiterno, un'evoluzione alla lingua. Le neoformazioni e i neologismi fungono da emblema dell'esigenza comunicativa dell'uomo, ma le neoformazioni sono sintomo della sana patologia del far capire e dell'essere capiti. L'idea per questa tesi è nata dalla dizionarizzazione dell'aggettivo "petaloso". Oltre ad una parte teorica sull'arricchimento lessicale, questo scritto contiene la relazione di un esperimento (un'intervista con una serie di domande aperte) condotto per studiare l'atteggiamento di parlanti italiani nei confronti delle neoformazioni. Sono stati presi in analisi i seguenti fattori: reazione, interpretazione e accettazione.
Resumo:
La trattazione si propone di affrontare, in una prospettiva economico-aziendale, la questione relativa alla quantificazione del corretto risarcimento per reintegrare i danni economici conseguenti a violazioni dei diritti di proprietà industriale. L’obiettivo della tesi è, in particolare, quello di individuare le principali metodologie di valutazione degli intangibile assets, con particolare riferimento ai casi di loro contraffazione e indebita appropriazione da parte di terzi. Tra le diverse categorie di intellectual property, nel lavoro è affrontata con un maggior grado di dettaglio quella specifica del marchio, il bene intangibile più violato. L'indagine teorico-concettuale svolta nei primi capitoli trova un riscontro empirico nei diversi casi di violazione relativi a sentenze dei tribunali delle imprese italiani, presi in esame nell’ultima parte della tesi. L'analisi effettuata ha permesso, in particolare, di comprendere l'iter logico effettivamente adottato per la quantificazione del danno in sede di giudizio.
Resumo:
Negli ultimi anni la teoria dei network è stata applicata agli ambiti più diversi, mostrando proprietà caratterizzanti tutti i network reali. In questo lavoro abbiamo applicato gli strumenti della teoria dei network a dati cerebrali ottenuti tramite MRI funzionale “resting”, provenienti da due esperimenti. I dati di fMRI sono particolarmente adatti ad essere studiati tramite reti complesse, poiché in un esperimento si ottengono tipicamente più di centomila serie temporali per ogni individuo, da più di 100 valori ciascuna. I dati cerebrali negli umani sono molto variabili e ogni operazione di acquisizione dati, così come ogni passo della costruzione del network, richiede particolare attenzione. Per ottenere un network dai dati grezzi, ogni passo nel preprocessamento è stato effettuato tramite software appositi, e anche con nuovi metodi da noi implementati. Il primo set di dati analizzati è stato usato come riferimento per la caratterizzazione delle proprietà del network, in particolare delle misure di centralità, dal momento che pochi studi a riguardo sono stati condotti finora. Alcune delle misure usate indicano valori di centralità significativi, quando confrontati con un modello nullo. Questo comportamento `e stato investigato anche a istanti di tempo diversi, usando un approccio sliding window, applicando un test statistico basato su un modello nullo pi`u complesso. Il secondo set di dati analizzato riguarda individui in quattro diversi stati di riposo, da un livello di completa coscienza a uno di profonda incoscienza. E' stato quindi investigato il potere che queste misure di centralità hanno nel discriminare tra diversi stati, risultando essere dei potenziali bio-marcatori di stati di coscienza. E’ stato riscontrato inoltre che non tutte le misure hanno lo stesso potere discriminante. Secondo i lavori a noi noti, questo `e il primo studio che caratterizza differenze tra stati di coscienza nel cervello di individui sani per mezzo della teoria dei network.
Resumo:
Questa tesi si propone di fare luce sulla figura e sulle idee di Aleksandra Michajlovna Kollontaj (San Pietroburgo 1987 – Mosca 1952), attivista per i diritti delle donne, bolscevica e membro del partito comunista sovietico, nel quadro della storia dell’Unione Sovietica dal 1917 all’inizio degli anni ’30 del Novecento. Verrà presentato l’articolo "Novaja ženščina", in cui l’autrice delinea un modello per tutte le future cittadine sovietiche: la cosiddetta 'donna nuova', che rifiuta la 'schiavitù' del ruolo esclusivo di madre e moglie e afferma la propria libertà attraverso il lavoro e l’impegno sociale Si riprenderanno le vicende del romanzo della Kollontaj "Vasilisa Malygina". L’eroina che dà il titolo all’opera è la trasposizione letteraria della donna nuova e rappresenta le contraddizioni di una 'creatura di transizione' fra l’epoca prerivoluzionaria e quella sovietica. In seguito verranno messe il luce le contraddizioni nelle proposte della Kollontaj. Per ultimo verrà delineato un quadro delle libertà civili introdotte nella Russia degli anni ’20 e il successivo ritorno, con la salita al potere di Stalin, alla repressione delle libertà e a un rigido controllo statale su tutti gli ambiti della vita. Si sottolineerà come il corso della storia non permise alle idee proposte dalla Kollontaj di affermarsi nella quotidianità della vita sovietica.
Resumo:
Il presente elaborato affronta il modo in cui la canzone della provincia canadese del Québec tratta i temi dello sviluppo sostenibile e dell’ecologia. Il Québec deve gran parte del suo benessere economico e sociale all’utilizzo delle risorse naturali presenti nella parte nord-est del Canada. Negli ultimi decenni, lo sfruttamento sempre maggiore delle risorse del pianeta ha fatto nascere negli esseri umani la consapevolezza di dover prendere provvedimenti a favore di un’economia sostenibile per il rispetto del pianeta. In questo elaborato si è voluto analizzare in che modo questa consapevolezza venga espressa attraverso le canzoni e la musica, due elementi fondamentali della cultura e dell’identità del Québec, innanzitutto proponendo i principali momenti della storia della canzone della provincia canadese e la maniera in cui la relazione con l’ambiente è cambiata nel corso degli anni. Successivamente, si è svolta un analisi dei temi trattati dalla canzone negli ultimi vent’anni, focalizzandosi sulle tematiche legate all’ambiente e allo sviluppo sostenibile: per fare ciò, è stata presa in analisi l’opera di cinque artisti famosi per il loro sostegno alle politiche ambientali in Québec. Le loro canzoni più significative sono state analizzate del punto di vista del contenuto e dal punto di vista lessicale. Infine, ci si è soffermati sul ruolo che la canzone e il francese del Québec ricoprono nella definizione e nella diffusione dell’identità nazionale quebecchese.
Resumo:
Viaggiare da un punto all'altro dell'universo muovendosi in uno spazio-tempo piatto richiede tempi talmente colossali da risultare impossibile per la nostra razza; pertanto, un viaggio interstellare potrebbe essere realizzato solo per mezzo di topologie relativistiche in grado di accorciare la distanza fra i punti dell'universo. Dopo aver dato una serie di motivazioni per cui i buchi neri ed il ponte di Einstein-Rosen non sono adatti ad essere impiegati viene introdotta una particolare classe di soluzioni, presentata per la prima volta da Michael S. Morris e Kip S. Thorne, delle equazioni di Einstein: essa descrive wormholes i quali, almeno in linea di principio, risultano attraversabili dagli esseri umani in quanto non presentano un orizzonte degli eventi sulla gola. Quest'ultima proprietà, insieme alle equazioni di campo di Einstein, pone dei vincoli piuttosto estremi sul tipo di materiale in grado di dar luogo alla curvatura spazio-temporale del wormhole: nella gola del wormhole la materia deve possedere una tensione radiale di enorme intensità, dell'ordine di quella presente nel centro delle stelle di neutroni più massive per gole con un raggio di appena qualche kilometro. Inoltre, questa tensione dev'essere maggiore della densità di energia del materiale: ad oggi non si conosce alcun materiale con quest'ultima proprietà, la quale viola entrambe le "condizioni sull'energia" alla base di teoremi molto importanti e verificati della relatività generale. L'esistenza di questa materia non può essere esclusa a priori, visto che non esiste prova sperimentale o matematica della sua irrealisticità fisica, ma non essendo mai stata osservata è importante assicurarsi di impiegarne il meno possibile nel wormhole: questo ci porterà a mostrare che i wormholes in cui il materiale esotico presenta una densità di energia negativa per gli osservatori statici sono i più adatti al viaggio interstellare.
Resumo:
Lo scopo della presente tesi è lo studio e la progettazione di un sistema Hands-Free applicato in ambito Healthcare, volto ad aiutare il personale sanitario nello svolgimento delle mansioni lavorative. Il progetto, denominato Trauma Tracker, ha avuto origine grazie alla collaborazione con medici ed infermieri dell'ospedale Maurizio Bufalini di Cesena. In particolare, il sistema in prodotto si prende carico della compilazione del report finale contenente tutte le operazioni svolte sui pazienti nell'ambito del Pronto Soccorso, riducendo così notevolmente le possibilità di errori dovuti a fattori umani. Durante le fasi di sviluppo e progettazione sono state aggiunte ulteriori funzionalità al sistema, fino a farlo diventare vero e proprio oggetto incantato, in grado di esibire proprietà finora inimmaginabili in questo campo di applicazione. Trauma Tracker, almeno in queste prime fasi, non si propone come uno strumento immediatamente utilizzabile sul campo e pronto ad affiancare i medici, poiché necessiterebbe subito di qualità come robustezza ed affidabilità a livelli estremamente elevati. Per questo motivo il progetto è stato trattato come un "Proof of Concept", ossia un prototipo che ha lo scopo di dimostrare la fattibilità di tale sistema nella realtà, e di verificarne l'utilità una volta applicato in uno scenario concreto. L'argomento trattato ha quindi una grande importanza, poiché getta le basi di una tecnologia che un giorno potrà aiutare medici ed infermieri a svolgere al meglio l'impegnativo compito di salvare vite. In questa tesi, è stato approfondito in particolare il sottosistema utilizzato per il riconoscimento dei parametri vitali dal monitor multi-parametrico posto nei diversi reparti ospedalieri. Esso ha richiesto lunghe fasi di implementazione e collaudo per ottenere dei risultati soddisfacenti, che alla fine sono stati raggiunti.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.