241 resultados para Diritti umani
Resumo:
La ricerca riguarda l’inclusione di dichiarazioni di diritti e principi introdotte negli Statuti di autonomia delle Regioni italiane e delle Comunità Autonome spagnole riformati negli ultimi anni. La tesi consta, oltre che nell’introduzione dei concetti preliminari, di due parti per ognuno dei Paesi nelle quali si esaminano i sistemi regionali e concretamente queste carte di diritti e principi. La terza parte raccoglie un’analisi comparativa di ambedue gli Stati. Il problema dell’efficacia di questi diritti e principi rappresenta la chiave fondamentale. In questo senso, la Giurisprudenza costituzionale risulta essere basilare per lo studio delle differenti risposte alle novità dei diversi elenchi di diritti e principi a livello regionale. Mentre la Corte Costituzionale italiana ha negato la loro efficacia giuridica, anche come norme programmatiche assimilabili a quelle costituzionali, il Tribunale Costituzionale spagnolo ha qualificato un nuovo tipo di diritto, i c. d. diritti statutari, che non sono diritti pubblici soggettivi ma mandati ai poteri pubblici autonomici, specialmente al legislatore autonomico. Lo studio si completa con la problematica dell’uguaglianza e la garanzia dei diritti e i principi in questi Stati composti.
Resumo:
Sono stati studiati gli effetti tossici dell’esposizione cronica a cobalto e cromo. In passato, questa tossicità, che colpiva lavoratori esposti per ragioni occupazionali, è stata un problema molto sentito. Tuttavia, recenti pubblicazioni hanno descritto una specifica tossicità mediata da elevati livelli di cobalto e cromo, anche in pazienti portatori di protesi metalliche, quali gli impianti d’anca. Anche se sintomi clinici tra cui, cecità, sordità e neuropatia periferica, suggeriscono uno specifico neurotropismo, ancora poco è conosciuto delle basi neuropatologiche di questo processo ed oltretutto non ne è ancora stata apportata un’evidenza sperimentale. In questo progetto di ricerca, quindi, si è voluto approfondire il meccanismo patogenetico da cui scaturiscono tali sintomi neurologici, utilizzando come modello sperimentale il coniglio. Conigli New Zealand White sono stati trattati con dosi endovenose ripetute di cobalto e cromo, inoculati singolarmente od in associazione tra loro. Nessuna evidente alterazione clinica o patologica è stata associata alla somministrazione di solo cromo, nonostante gli elevati livelli in sangue e tessuti, mentre i trattati con cobalto-cromo o solo cobalto hanno mostrato segni clinici gravanti sul sistema vestibolo-cocleare; il cobalto, quindi, è stato identificato come il maggiore elemento scatenante neurotossicità. Inoltre all’esame istopatologico gli animali hanno mostrato severa deplezione delle cellule gangliari retiniche e cocleari, assieme a danno al nervo ottico e perdita di cellule sensitive capellute dell’orecchio. È risultato infine evidente che la gravità delle alterazioni è stata correlata al dosaggio ed al tempo di esposizione; dati questi che confermano, quindi, le precedenti osservazioni fatte su pazienti umani esposti a rilascio abnorme di cobalto e cromo da usura di protesi d’anca. È stato ipotizzato che il cobalto agisca sui mitocondri provocando l’incremento di produzione di specie reattive dell’ossigeno e il rilascio di fattori proapoptotici, causando sulle cellule neuronali un danno proporzionale al loro fabbisogno energetico e grado di mielinizzazione.
Resumo:
La tesi riguarda la creazione di una architettura che ha lo scopo di far interagire attivamente un utente con una mappa digitale tramite browser web e un applicativo che calcola dei percorsi in base ad un algoritmo di ottimizzazione. Un ambito interessante, attuale e che avrà, molto probabilmente, notevoli sviluppi futuri. Basti pensare per esempio a come le persone interagiscono con le mappe digitali tramite i famosi Google Maps o Google Earth, Bing Maps e OpenStreetMap. Questa interazione è diventata talmente naturale che è ormai intuitivo ruotare la rotellina del mouse per zoomare oppure tenere premuto il tasto sinistro per trascinare la mappa. Spesso questi applicativi web offrono servizi per il calcolo di percorsi, o rilasciano anche delle API per interagire e personalizzare alcuni aspetti, anche se spesso in modo limitato per questioni di copyright. In questo contesto entrano in gioco associazioni, singoli individui e fondazioni che creano software e standard fruibili da chiunque per creare applicativi e architetture personalizzate senza vincoli di diritti troppo limitanti. In questa tesi viene mostrato un approccio che permette una personalizzazione molto dettagliata e un'alta interoperabilità con queste applicazioni specifiche. Ma tutti questi aspetti positivi sono fruibili, per ora, solo mediante supporto umano avente un bagaglio di esperienze tecniche adeguate.
Resumo:
Oncolytic virotherapy exploits the ability of viruses to infect and kill cells. It is suitable as treatment for tumors that are not accessible by surgery and/or respond poorly to the current therapeutic approach. HSV is a promising oncolytic agent. It has a large genome size able to accommodate large transgenes and some attenuated oncolytic HSVs (oHSV) are already in clinical trials phase I and II. The aim of this thesis was the generation of HSV-1 retargeted to tumor-specific receptors and detargeted from HSV natural receptors, HVEM and Nectin-1. The retargeting was achieved by inserting a specific single chain antibody (scFv) for the tumor receptor selected inside the HSV glycoprotein gD. In this research three tumor receptors were considered: epidermal growth factor receptor 2 (HER2) overexpressed in 25-30% of breast and ovarian cancers and gliomas, prostate specific membrane antigen (PSMA) expressed in prostate carcinomas and in neovascolature of solid tumors; and epidermal growth factor receptor variant III (EGFRvIII). In vivo studies on HER2 retargeted viruses R-LM113 and R-LM249 have demonstrated their high safety profile. For R-LM249 the antitumor efficacy has been highlighted by target-specific inhibition of the growth of human tumors in models of HER2-positive breast and ovarian cancer in nude mice. In a murine model of HER2-positive glioma in nude mice, R-LM113 was able to significantly increase the survival time of treated mice compared to control. Up to now, PSMA and EGFRvIII viruses (R-LM593 and R-LM613) are only characterized in vitro, confirming the specific retargeting to selected targets. This strategy has proved to be generally applicable to a broad spectrum of receptors for which a single chain antibody is available.
Resumo:
Le malattie trasmesse da zecche sono un importante problema sia per la salute animale che per quella umana e negli ultimi decenni hanno aumentato notevolmente la loro diffusione, in seguito ai cambiamenti climatici, che hanno permesso la distribuzione delle zecche in aree prima non interessate. Per tale motivo si è deciso di effettuare un’indagine sulla diffusione delle zecche e sui patogeni da loro trasmessi, mediante campionamenti sia a livello ambientale, sia su animali e umani infestati in quattro siti di tre parchi dell’Emilia Romagna, dove non risultavano precedenti segnalazioni, nelle province di Bologna e Ravenna, da Aprile a Ottobre 2010. In totale sono state raccolte 8212 zecche. Dall’ambiente sono state campionate 6734 larve, 1344 ninfe, 61 adulti; dagli animali e da persone sono stati raccolti 68 adulti e 5 ninfe appartenenti a diverse specie di Ixodidae. Sono state condotte analisi sull’abbondanza delle zecche nelle diverse aree di raccolta, in funzione del periodo di campionamento, della temperatura e dell’umidità relativa misurata a 5 cm dal suolo al momento del campionamento e della vegetazione. Su tutti gli individui adulti e su pool di ninfe e di larve, per un totale di 393 campioni, sono state condotte analisi di tipo molecolare per la ricerca di piroplasmi, Anaplasma phagocytophilum e Borrelia burgdorferi s.l. Attraverso la PCR e il sequenziamento, è emerso che il 7,6% dei campioni era positivo per piroplasmi, tra i quali è stata riscontrata anche la presenza delle specie zoonosiche Babesia EU1 e B. divergens. La real-time PCR eseguita solo sui campioni costituiti da ninfe e adulti ha evidenziato una prevalenza del 9,2% per A. phagocytophilum e del 21,6% per B. burgdorferi s.l. Su questi patogeni sono state quindi condotte analisi di tipo filogenetico. In alcuni campioni sono state riscontrate coinfezioni con combinazioni di due patogeni contemporaneamente.
Resumo:
La diagnosi di linfoma non Hodgkin B della zona marginale si basa su criteri morfologici e sulla sostanziale negatività per marcatori immunoistochimici espressi in altri sottotipi di linfoma B. L’ obiettivo di questo lavoro è stato, quindi, quello di ricercare una molecola specifica associata ai linfomi della zona marginale. Materiali e Metodi. Sono stati esaminati 2.104 linfomi periferici di entità nosologia eterogenea mediante un anticorpo monoclonale, diretto contro la molecola IRTA1, che riconosce la zona marginale nei tessuti linfoidi umani. Risultati. Si è riscontrata espressione di IRTA1 nel 93% dei linfomi della zona marginale ad insorgenza extranodale e nel 74% di quelli primitivi linfonodali suggerendo la possibilità che questi linfomi possano originare dalle cellule perifollicolari o monocitoidi IRTA1+ riscontrabili nei linfonodi reattivi. La valutazione immunoistochimica mediante doppia colorazione (IRTA1/bcl6), ha inoltre dimostrato come vi sia una modulazione fenotipica nelle cellule marginali neoplastiche nel momento in cui esse colonizzano i follicoli linfoidi e durante la loro circolazione nei centri germinativi. Le cellule marginali neoplastiche che differenziano in senso plasmacellulare perdono l’ espressione di IRTA1 Discussione. In conclusione, tali evidenze hanno permesso di ampliare la conoscenza sulla biologia dei linfomi marginali e sottolineano come IRTA1 sia il primo marcatore diagnostico positivo per queste neoplasie.
Resumo:
Il mio lavoro di tesi si intitola "Alla ricerca dell'autenticità. Kathy Acker e Vladimir Sorokin a confronto". La comparazione riflette sulle inaspettate similarità sociali, e di conseguenza letterarie, di Usa e Urss dagli anni Settanta agli anni Novanta, indagate attraverso l'arte dei due scrittori citati nel titolo. Kathy Acker è nata nel 1947 a New York e durante gli anni Settanta frequentò assiduamente la comunità artistica definita "Downtown New York". Vladimir Sorokin è nato nel 1955 nei dintorni di Mosca e negli stessi anni entrò all'intorno del circolo "Moskovskij Konzeptualism" della grande città. Queste due comunità artistiche erano create dalla libera aggregazione di artisti, scultori, letterati, poeti, musicisti.. in un vortice creativo in contrasto con la chiusura sociale e artistica degli ambiti definibili come accademici o ufficiali. Con le loro opere Acker e Sorokin cercarono di distruggere le norme sovraimposte e arrivare all'"autenticità" riguardo al sé, all'homo sovieticus, all'uomo americano e riguardo al genere umano in generale. Nell'arco del mio studio l'utopia del radioso avvenire sovietico e l'utopia del sogno americano d'oltreoceano si sono rivelati come prigioni della vita di ogni giorno, in grado di allontanare l'uomo dai suoi desideri veri e dai suoi impulsi più umani. Le risposte artistiche delle due comunità in generale e dei due scrittori in particolare sono volte alla liberazione dai vincoli dell'utopia e alla riscoperta di ciò che è ritenuto come debolezza e bassezza dell'uomo. Le due comunità artistiche cercarono il contatto con un vasto pubblico non elitario, cercano un linguaggio comprensibile da tutti. Contemporaneamente il corpo con tutte le sue pulsioni cerca di riguadagnare il proprio spazio in un sè egemonizzato dalla mente. Ma quel che queste comunità artistiche soprattutto fanno è porre domande alla coscienza e incoscienza della società. Cercano di trasformare il terrore quotidiano in qualcosa di comprensibile e scaricabile, un ruolo che una volta era proprio dei rituali trasgressivi del popolo e che dal Novecento, con la trasformazione del popolo in massa omologata, sono venuti a mancare. Acker e Sorokin cercano strutture narrative e artistiche in grado di proporre alla “corporealtà collettiva” una via di redenzione ritualistica. Questi artisti non si conformano e sono in grado di illuminare, di dare sostentamento all'individuo nella ricerca personale di una lingua, di un pensiero, di un mito in cui vivere. Reagiscono al balbettio omologante delle società di massa, non si adeguano a nessuna forma fissa e anche la loro arte continua a evolvere, a fallire, a cercare.
Resumo:
Al principio iura novit curia si assegnano tradizionalmente due significati: il giudice conosce le norme, quindi le parti non hanno onori al riguardo, e il giudice non è vincolato dalle indicazioni delle parti, quanto alle norme di diritto da applicare. La tesi delimita inizialmente la nozione di questione di diritto, quindi affronta partitamente due problemi che si pongono con riferimento alle questioni di diritto e che sono soliti essere risolti con il richiamo al principio iura novit curia: la conoscenza delle norme da una parte e la qualificazione giuridica della domanda e quindi della situazione soggettiva dall’altra. Quanto alla conoscenza delle norme, motivata la scelta per l’obbligatorietà della conoscenza ufficiosa di tutte le fonti di diritto, la tesi verifica la regola in relazione alle diverse fonti descrivendone la disciplina. Quanto alla qualificazione giuridica della domanda, la tesi, verificata la vigenza del principio iura novit curia, descrive sul piano processuale le relazioni del potere-dovere di qualificazione giuridica a) individuandone i limiti oggettivi, ricompresi nei limiti della domanda, e risultanti dal confronto con la regola della corrispondenza del chiesto con il pronunciato, del concorso di diritti, della natura autodeterminata dei diritti, b) tracciandone le modalità legittime di esercizio in conformità al principio del contradditorio; c) verificandone i limiti esterni, ravvisati in quegli istituti che impediscono al giudice di formulare un giudizio sulla questione di diritto: le sentenze non definitive su questioni di diritto, il principio di diritto, il giudicato interno e i limiti alla cognizione del giudice dell’impugnazione tra i gradi di giudizio.
Resumo:
Il progetto di ricerca si situa nell’ambito dell’informatica giudiziaria settore che studia i sistemi informativi implementati negli uffici giudiziari allo scopo di migliorare l’efficienza del servizio, fornire una leva per la riduzione dei lunghi tempi processuali, al fine ultimo di garantire al meglio i diritti riconosciuti ai cittadini e accrescere la competitività del Paese. Oggetto di studio specifico del progetto di ricerca è l’utilizzo delle ICT nel processo penale. Si tratta di una realtà meno studiata rispetto al processo civile, eppure la crisi di efficienza del processo non è meno sentita in tale area: l’arretrato da smaltire al 30 giugno del 2011 è stato quantificato in 3,4 milioni di processi penali, e il tempo medio di definizione degli stessi è di quattro anni e nove mesi. Guardare al processo penale con gli occhi della progettazione dei sistemi informativi è vedere un fluire ininterrotto di informazioni che include realtà collocate a monte e a valle del processo stesso: dalla trasmissione della notizia di reato alla esecuzione della pena. In questa prospettiva diventa evidente l’importanza di una corretta gestione delle informazioni: la quantità, l’accuratezza, la rapidità di accesso alle stesse sono fattori così cruciali per il processo penale che l’efficienza del sistema informativo e la qualità della giustizia erogata sono fortemente interrelate. Il progetto di ricerca è orientato a individuare quali siano le condizioni in cui l’efficienza può essere effettivamente raggiunta e, soprattutto, a verificare quali siano le scelte tecnologiche che possono preservare, o anche potenziare, i principi e le garanzie del processo penale. Nel processo penale, infatti, sono coinvolti diritti fondamentali dell’individuo quali la libertà personale, la dignità, la riservatezza, diritti fondamentali che vengono tutelati attraverso un ampia gamma di diritti processuali quali la presunzione di innocenza, il diritto di difesa, il diritto al contraddittorio, la finalità di rieducazione della pena.
Resumo:
The aim of this thesis was to investigate the respective contribution of prior information and sensorimotor constraints to action understanding, and to estimate their consequences on the evolution of human social learning. Even though a huge amount of literature is dedicated to the study of action understanding and its role in social learning, these issues are still largely debated. Here, I critically describe two main perspectives. The first perspective interprets faithful social learning as an outcome of a fine-grained representation of others’ actions and intentions that requires sophisticated socio-cognitive skills. In contrast, the second perspective highlights the role of simpler decision heuristics, the recruitment of which is determined by individual and ecological constraints. The present thesis aims to show, through four experimental works, that these two contributions are not mutually exclusive. A first study investigates the role of the inferior frontal cortex (IFC), the anterior intraparietal area (AIP) and the primary somatosensory cortex (S1) in the recognition of other people’s actions, using a transcranial magnetic stimulation adaptation paradigm (TMSA). The second work studies whether, and how, higher-order and lower-order prior information (acquired from the probabilistic sampling of past events vs. derived from an estimation of biomechanical constraints of observed actions) interacts during the prediction of other people’s intentions. Using a single-pulse TMS procedure, the third study investigates whether the interaction between these two classes of priors modulates the motor system activity. The fourth study tests the extent to which behavioral and ecological constraints influence the emergence of faithful social learning strategies at a population level. The collected data contribute to elucidate how higher-order and lower-order prior expectations interact during action prediction, and clarify the neural mechanisms underlying such interaction. Finally, these works provide/open promising perspectives for a better understanding of social learning, with possible extensions to animal models.
Resumo:
La ricerca affronta in modo unitario e nell’ottica europea i multiformi fenomeni della doppia imposizione economica e giuridica, assumendo come paradigma iniziale la tassazione dei dividendi cross-border. Definito lo statuto giuridico della doppia imposizione, se ne motiva la contrarietà all’ordinamento europeo e si indagano gli strumenti comunitari per raggiungere l’obiettivo europeo della sua eliminazione. In assenza di un’armonizzazione positiva, il risultato sostanziale viene raggiunto grazie all’integrazione negativa. Si dimostra che il riserbo della Corte di Giustizia di fronte a opzioni di politica fiscale è soltanto un’impostazione di facciata, valorizzando le aperture giurisprudenziali per il suo superamento. Questi, in sintesi, i passaggi fondamentali. Si parte dall’evoluzione delle libertà fondamentali in diritti di rango costituzionale, che ne trasforma il contenuto economico e la portata giuridica, attribuendo portata costituzionale ai valori di neutralità e non restrizione. Si evidenzia quindi il passaggio dal divieto di discriminazioni al divieto di restrizioni, constatando il fallimento del tentativo di configurare il divieto di doppia imposizione come principio autonomo dell’ordinamento europeo. Contemporaneamente, però, diventa opportuno riesaminare la distinzione tra doppia imposizione economica e giuridica, e impostare un unico inquadramento teorico della doppia imposizione come ipotesi paradigmatica di restrizione alle libertà. Conseguentemente, viene razionalizzato l’impianto giurisprudenziale delle cause di giustificazione. Questo consente agevolmente di legittimare scelte comunitarie per la ripartizione dei poteri impositivi tra Stati Membri e l’attribuzione delle responsabilità per l’eliminazione degli effetti della doppia imposizione. In conclusione, dunque, emerge una formulazione europea dell’equilibrato riparto di poteri impositivi a favore dello Stato della fonte. E, accanto ad essa, una concezione comunitaria del principio di capacità contributiva, con implicazioni dirompenti ancora da verificare. Sul piano metodologico, l’analisi si concentra criticamente sull’operato della Corte di Giustizia, svelando punti di forza e di debolezza della sua azione, che ha posto le basi per la risposta europea al problema della doppia imposizione.
Resumo:
Conformemente ai trattati, l'UE sviluppa una politica comune in materia di asilo, immigrazione e controllo delle frontiere esterne, fondata sulla solidarietà e sul rispetto dei diritti fondamentali e, a tal fine, avvia relazioni strategiche con i Paesi terzi e le Organizzazioni internazionali. Un fenomeno “senza frontiere”, quale quello migratorio, esige del resto un'azione coerente e coordinata sia sul piano interno sia su quello esterno. La messa in atto di quest'ultima, tuttavia, si scontra con difficoltà di rilievo. Innanzitutto, l'UE e i suoi Stati membri devono creare i presupposti per l'avvio della collaborazione internazionale, vale a dire stimolare la fiducia reciproca con i Paesi terzi, rafforzando la propria credibilità internazionale. A tal fine, le istituzioni, gli organi e gli organismi dell'UE e gli Stati membri devono impegnarsi a fornire un modello coerente di promozione dei valori fondanti, quali la solidarietà e il rispetto dei diritti fondamentali, nonché a coordinare le proprie iniziative, per individuare, insieme ai Paesi terzi e alle Organizzazioni internazionali, una strategia d'azione comune. In secondo luogo, l'UE e gli Stati membri devono adottare soluzioni volte a promuovere l'efficacia della collaborazione internazionale e, più precisamente, assicurare che la competenza esterna sia esercitata dal livello di governo in grado di apportare il valore aggiunto e utilizzare la forma collaborativa di volta in volta più adeguata alla realizzazione degli obiettivi previsti. In definitiva, l'azione esterna dell'UE in materia di politica migratoria necessita di una strategia coerente e flessibile. Se oggi la coerenza è garantita dalla giustiziabilità dei principi di solidarietà, di rispetto dei diritti fondamentali e, giustappunto, di coerenza, la flessibilità si traduce nel criterio del valore aggiunto che, letto in combinato disposto con il principio di leale cooperazione, si pone al centro del nuovo modello partenariale proposto dall'approccio globale, potenzialmente idoneo a garantire la gestione efficace del fenomeno migratorio.
Resumo:
Nel presente lavoro viene trattato il delicato tema dell’autotutela collettiva, nell’intersezione tra ipotesi di revisione nazionale e prospettive europee. Dapprima viene ricostruita l’evoluzione della valutazione del conflitto collettivo nell’ordinamento giuridico italiano ed effettuata una ricognizione delle diverse manifestazioni del conflitto collettivo ivi riscontrabili. Il tentativo è quello di superare i limiti di una trattazione ristretta allo sciopero e di verificare la perdurante validità della tradizionale nozione di sciopero, intesa esclusivamente come astensione collettiva dalle prestazioni di lavoro. In un secondo capitolo vengono esaminati i disegni di legge di riforma in materia di conflitto collettivo, presentati nel corso della XVI legislatura e le clausole, incidenti sulla medesima materia, rinvenibili nell’Accordo interconfederale del 28 giugno 2011 e negli accordi FIAT del 2010, relativi agli stabilimenti di Pomigliano D’Arco e Mirafiori. Alla luce di tali materiali, si riesaminano le tematiche della titolarità individuale del diritto di sciopero, delle clausole di tregua e delle procedure arbitrali e conciliative. Successivamente, viene esaminata la produzione legislativa e giurisprudenziale comunitaria in tema di conflitto collettivo. Il confronto con l’ordinamento nazionale consente di mettere criticamente in luce il diverso rapporto tra mercato e diritti d’azione collettiva e di rilevare che nell’ordinamento comunitario la giurisprudenza della Corte di giustizia abbia introdotto limiti eccessivi al dispiegarsi dei diritti sociali in esame. Da ultimo, vengono formulate alcune considerazioni conclusive. Criticamente viene rilevato come, in tempi di globalizzazione, non viene prestata sufficiente attenzione alla valorizzazione del conflitto collettivo, come motore dell’emancipazione e del progresso sociale.
Resumo:
Il lavoro si propone di indagare, a livello europeo, il fenomeno della seconda vittimizzazione, attraverso l'analisi delle condizioni attuali dei sistemi giudiziari nei confronti delle vittime di reato, anche grazie allo spoglio della giurisprudenza della Corte Europea dei Diritti dell'Uomo di Strasburgo.
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.