265 resultados para metodi di autenticazione a chiave pubblica e privata protocollo di Schnorr
Resumo:
Come risposta positiva alle richieste provenienti dal mondo dei giuristi, spesso troppo distante da quello scientifico, si vuole sviluppare un sistema solido dal punto di vista tecnico e chiaro dal punto di vista giurico finalizzato ad migliore ricerca della verità. L’obiettivo ci si prefigge è quello di creare uno strumento versatile e di facile utilizzo da mettere a disposizione dell’A.G. ed eventualmente della P.G. operante finalizzato a consentire il proseguo dell’attività d’indagine in tempi molto rapidi e con un notevole contenimento dei costi di giustizia rispetto ad una normale CTU. La progetto verterà su analisi informatiche forensi di supporti digitali inerenti vari tipi di procedimento per cui si dovrebbe richiedere una CTU o una perizia. La sperimentazione scientifica prevede un sistema di partecipazione diretta della P.G. e della A.G. all’analisi informatica rendendo disponibile, sottoforma di macchina virtuale, il contenuto dei supporti sequestrati in modo che possa essere visionato alla pari del supporto originale. In questo modo il CT diventa una mera guida per la PG e l’AG nell’ambito dell’indagine informatica forense che accompagna il giudice e le parti alla migliore comprensione delle informazioni richieste dal quesito. Le fasi chiave della sperimentazione sono: • la ripetibilità delle operazioni svolte • dettare delle chiare linee guida per la catena di custodia dalla presa in carico dei supporti • i metodi di conservazione e trasmissione dei dati tali da poter garantire integrità e riservatezza degli stessi • tempi e costi ridotti rispetto alle normali CTU/perizie • visualizzazione diretta dei contenuti dei supporti analizzati delle Parti e del Giudice circoscritte alle informazioni utili ai fini di giustizia
Resumo:
INTRODUZIONE - La presente ricerca è incentrata sul monitoraggio dell’efficacia dei progetti di Educazione Avventura con adolescenti difficili, in particolare del progetto “Lunghi cammini educativi”. A partire da un’analisi della letteratura sull’educazione esperienziale nature-based e in particolare sull’Adventure Education con adolescenti difficili, è stata progettata una rilevazione empirica attraverso cui sperimentare un metodo di monitoraggio finalizzato a cogliere la dimensione processuale (che nella ricerca nell’ambito resta spesso inesplorata, poiché sono maggiormente diffusi i metodi di monitoraggio cosiddetti “black-box”), utilizzando un sistema integrato di diverse tecniche di rilevazione. Le due principali domande che hanno guidato la ricerca sono state: 1.Quali processi educativi significativi si innescano e possono essere osservati durante l’esperienza? 2.Il metodo dell’intervista camminata, integrato ad altri metodi, è utile per individuare e monitorare questi processi? METODO - Collocandosi all’interno di un framework metodologico qualitativo (influenzato da riflessioni post-qualitative, paradigma delle mobilità e sguardo fenomenologico), la ricerca prende la forma di uno studio di caso singolo con due unità di analisi, e prevede la triangolazione di diversi metodi di raccolta dei dati: analisi documentale; osservazione partecipante nei cammini e nelle riunioni di équipe; interviste (prima, durante, dopo il cammino) con differenti tecniche: camminata, “image-elicited”, tradizionale, online. RISULTATI - L’analisi tematica abduttiva delle interviste e delle osservazioni conferma quanto già evidenziato dalla letteratura circa la centralità della dilatazione del campo d’esperienza e del lavoro su alcune life skills (in particolare, competenze personali e growth mindset). Emergono anche alcuni key findings inattesi: il notevole “peso” dello stile educativo dell’accompagnatore; la “scoperta” del ruolo della quotidianità all’interno dell’esperienza straordinaria; la necessità di consapevolezza riguardo al potenziale educativo dell’ambiente (naturale e/o antropizzato), per una maggiore intenzionalità nelle scelte strategiche di cammino. L’intervista camminata, nonostante alcuni limiti, si conferma come metodo effettivamente utile a cogliere la dimensione processuale, e coerente con il contesto indagato.
Valutazione in opera ed in laboratorio della trasmissione laterale nelle tipologie edilizie italiane
Resumo:
L’attività di ricerca del dottorando è stata rivolta allo studio della trasmissione del rumore per via strutturale negli edifici. Questo argomento e' di notevole interesse sia fondamentale che applicativo. Il fenomeno e le problematiche ad essa connesse contribuiscono alla diminuzione delle prestazioni fonoisolanti, sia per le strutture verticali (usualmente valutate rispetto al rumore aereo), sia per quelle orizzontali (valutate anche rispetto al rumore impattivo) ed è tipico degli edifici con struttura portante a telaio e tamponatura in laterizi. Si tratta delle tipiche tipologie edilizie italiane, per le quali il problema risulta amplificato rispetto ad altre tipologie. La metodologia di studio è stata di tipo sperimentale. La scelta è dettata sia dall’insufficiente avanzamento dello stato dell’arte dei metodi di calcolo teorici, o delle loro versioni numeriche, sia dalla necessità di disporre di dati certi da confrontare con i valori forniti dai metodi previsionali semplificati indicati nelle norme UNI (modello CEN); infatti queste ultime sono un recepimento letterale di quelle europee, sebbene esse si basino su tipologie costruttive, materiali e tecniche di realizzazione differenti da quelle comunemente in uso in Italia; da qui la difformità di risultati tra formule previsionali e misurazioni sperimentali. Al fine di realizzare uno studio completo delle principali casistiche della trasmissione laterale sono state utilizzate 6 configurazioni in scala reale, con elementi edilizi diversamente collegati fra loro in modo da simulare i nodi strutturali comunemente realizzati negli edifici. La parte sperimentale della ricerca è stata svolta presso le “Camere Acustiche di Prova” del Laboratorio del Lazzaretto “R. Alessi” del DIENCA. Oltre alle usuali misurazioni di isolamento acustico, sono state eseguite numerose misurazioni di vibrazione. Infatti, dal confronto dei livelli di velocità di vibrazione dei diversi elementi di una struttura, rigidamente connessi, è possibile determinare l’indice di riduzione delle vibrazioni Kij che è la grandezza chiave per modellizzare il fenomeno della trasmissione laterale. La possibilità di determinare sperimentalmente tali valori nel contesto di un lavoro di ricerca finalizzato a determinare i meccanismi di propagazione delle vibrazioni nelle strutture, permette di valutare la precisione delle formule previsionali del modello CEN e di proporne varianti e integrazioni. I valori di Kij così determinati assumono grande importanza anche in fase di progetto, fornendo dati attendibili da utilizzare per la progettazione acustica degli edifici.
Resumo:
La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.
Resumo:
La ricerca indaga le dinamiche socio - economiche in atto in rapporto con le trasformazioni territoriali e valuta in quale misura la pianificazione territoriale ed urbanistica sia in grado di soddisfare le attuali esigenze nella gestione del territorio, urbanizzato e non. La riflessione parte dalla necessità di capire come un territorio possa conservare vitalità nel momento in cui si ritrova all’interno di un sistema di dinamiche che non si rivolge più ad ambiti di riferimento vicini (fino ad una decina d’anni fa la competitività veniva misurata, generalmente, tra regioni contermini, al massimo con riferimento ai trend nazionali), ma che necessita di confrontarsi per lo meno con le realtà regionali europee, se non, per certi versi, con la scala mondiale, globale appunto. La generalità della tematica ha imposto, di conseguenza, l’individuazione di un case book al quale riferirsi così da approfondirla attraverso una conoscenza diretta di un preciso ambito territoriale. È stato scelto, quale esemplificazione, il territorio della regione Veneto, con particolare riferimento all’area centrale. La ragione di tale scelta è da individuarsi, oltre che in motivi meramente strumentali, nel fatto che il Veneto, tra le regioni italiane, tuttora si configura come un territorio soggetto a forti trasformazioni indotte dalle dinamiche socio - economiche. Infatti da un primo periodo veneto, legato alla costruzione dell’armatura territoriale articolata su una molteplicità di poli diffusi sul territorio, si è passati al Secondo Veneto, quello della diffusione produttiva, dei capannoni, della marmellata urbanistica, del consumo del suolo. L’epoca attuale risponde poi ad un Terzo Veneto, un periodo forse di transizione verso un nuovo assetto. Il punto di partenza è stato dunque quello della delimitazione dell’area di riferimento, attraverso il riconoscimento di quei caratteri territoriali che la contraddistinguono da altre aree all’interno della regione stessa e su scala europea. Dopo una prima descrizione in chiave descrittiva e storico - evolutiva rivolta alla comprensione dei fenomeni in atto (diffuso e frammentazione insediativa tra i principali) si è passati ad una lettura quantitativa che consentisse, da un lato, di comprendere meglio alcuni caratteri della Regione e, dall’altro, di confrontarla con la scala globale, che si è scelto essere per la realtà considerata quella dell’Unione Europea. Le problematiche, i punti di forza e di debolezza emersi hanno consentito di formulare alcune ipotesi volte al miglioramento del territorio dell’area centrale veneta attraverso un processo che individuasse, non solo gli attori interessati alla trasformazione, ma anche gli strumenti maggiormente idonei per la realizzazione degli stessi. Sono emerse così le caratteristiche che potrebbe assumere il Quarto Veneto, il Veneto che verrà. I temi trattati spaziano dall’individuazione dei metodi di governance che, tramite il processo di visioning, siano in grado di individuare le priorità, di definire l’intensità d’uso, la vocazione dei luoghi e chi siano gli operatori interessati, all’integrazione tra i valori della storia e della cultura territoriale con i nuovi modi del fare (nuove tecnologie), fino all’individuazione di strumenti di coesione economica, sociale e territoriale per scongiurare quei rischi di disgregazione insiti nella globalizzazione. La ricerca si è dunque concretizzata attraverso un approccio euristico alla problematica delle trasformazioni territoriali, in cui il tema della scala di riferimento (locale - globale), ha consentito di valutare esperienze, tecniche e progetti volti al raggiungimento di livelli di sviluppo territoriale ed urbano sostenibili.
Resumo:
Il presente lavoro ha come obiettivo la definizione e la misura della complessità tecnologica, al fine di costruire strumenti a supporto di tutti gli operatori che si occupano dello sviluppo e della fabbricazione di un prodotto industriale, quali progettisti di prodotto e responsabili di produzione. La ricerca è stata sviluppata attraverso le fasi di seguito descritte. Analisi dello stato dell’arte su definizioni e misure della complessità in ambito industriale attraverso l’individuazione e studio di oltre un centinaio di pubblicazioni al riguardo. Classificazione dei metodi proposti in letteratura per la misura della complessità in cinque categorie e analisi critica dei punti di forza e di debolezza dei differenti metodi, ai fini di orientare la elaborazione di un nuovo metodo. Sono stati inoltre analizzati i principali metodi di Intelligenza Artificiali quali potenziali strumenti di calcolo della complessità. Indagine su tematiche correlate alla complessità quali indicatori, trasferimento tecnologico e innovazione. La complessità viene misurata in termini di un indice che appartiene alla categoria degli indicatori, utilizzati in molti ambiti industriali, in particolare quello della misura delle prestazioni di produzione. In particolare si è approfondito significato e utilizzo dell’OEE (Overall Equipment Effectiveness), particolarmente diffuso nelle piccole medie imprese emilianoromagnole e in generale dalle aziende che utilizzano un sistema produttivo di tipo job-shop. È stato implementato un efficace sistema di calcolo dell’OEE presso una azienda meccanica locale. L’indice di complessità trova una delle sue più interessanti applicazioni nelle operazioni di trasferimento tecnologico. Introdurre un’innovazione significa in genere aumentare la complessità del sistema, quindi i due concetti sono connessi. Sono stati esaminati diversi casi aziendali di trasferimento di tecnologia e di misura delle prestazioni produttive, evidenziando legami e influenza della complessità tecnologica sulle scelte delle imprese. Elaborazione di un nuovo metodo di calcolo di un indice di complessità tecnologica di prodotto, a partire dalla metodologia ibrida basata su modello entropico proposta dai Prof. ElMaraghy e Urbanic nel 2003. L’attenzione è stata focalizzata sulla sostituzione nella formula originale a valori determinati tramite interviste agli operatori e pertanto soggettivi, valori oggettivi. Verifica sperimentale della validità della nuova metodologia attraverso l’applicazione della formula ad alcuni componenti meccanici grazie alla collaborazione di un’azienda meccanica manifatturiera. Considerazioni e conclusioni sui risultati ottenuti, sulla metodologia proposta e sulle applicazioni del nuovo indice, delineando gli obiettivi del proseguo della ricerca. In tutto il lavoro si sono evidenziate connessioni e convergenze delle diverse fonti e individuati in diversi ambiti concetti e teorie che forniscono importanti spunti e considerazioni sul tema della complessità. Particolare attenzione è stata dedicata all’intera bibliografia dei Prof. ElMaraghy al momento riconosciuti a livello internazionale come i più autorevoli studiosi del tema della complessità in ambito industriale.
Resumo:
Dopo aver brevemente ricostruito l’evoluzione dell’istituto dell’incompatibilità nel pubblico impiego, tra la sua introduzione nell’Ordinamento italiano nel 1908 e la sua attuale formulazione (attraverso le riforme del 1923 e del 1957), l’autore –contestando un’opinione diffusa nella letteratura giuslavoristica- esclude che l’art. 98 Cost. obblighi il legislatore ordinario ad imporre un dovere di esclusività al lavoratore dipendente dalle pubbliche amministrazioni. Successivamente si osserva come nel corso di più di un secolo la Dottrina, comunque poco interessata al tema, non abbia saputo giustificare in maniera unitaria e coerente la disciplina delle incompatibilità (se non ricorrendo ad argomentazioni di natura etica o sociale); diversamente la Giurisprudenza, soprattutto in epoca repubblicana, ha cercato di ricondurre la ratio dell’istituto alla specificità del rapporto lavorativo, riuscendo a giustificare le previsioni (e a individuarne i confini di applicazione) solo in relazione alla specialità del rapporto di lavoro pubblico. Nel secondo capitolo si evidenzia come, in occasione della riforma di fine XX secolo, la scelta di riservare alla legge la disciplina delle incompatibilità nel pubblico impiego non sia necessariamente in contrasto con la privatizzazione del lavoro pubblico. Si descrivono inoltre le linee generali dell’istituto, evidenziandone gli aspetti problematici (in particolare rapporto tra art. 53 del D.Lgvo 165/01 e l’art. 1 commi 57 e ss. della L. 662/96) e la collocazione nell’ambito complessivo della riforma di privatizzazione (con particolare attenzione al tema della natura degli atti). Nell’ultimo capitolo, si evidenziano le criticità della disciplina vigente, anche alla luce della discutibile interpretazione datane dalla Corte di Cassazione. In particolare si sottolinea come il sistema sanzionatorio non sia coerente con la contrattualizzazione del rapporto di lavoro e mantenga una forte connotazione pubblicistica. Si rileva quindi come le critiche all’istituto si possano sostanzialmente ricondurre al fatto che il legislatore, mantenendo in vita un istituto risalente e riconducibile a esigenze di varia natura, non ha individuato univocamente nè il fine ultimo delle norme nè quale sia il bene che si intende proteggere; in tal modo si è disegnato un sistema che vieta irragionevolmente le sole attività remunerative, implica una profonda differenziazione pubblico/privato, comporta un sacrificio significativo per il lavoratore pubblico. Dopo aver negato la possibilità di ricondurre l’istituto alle previsioni di cui all’art. 2105 c.c., l’autore, riflettendo sulle ragioni fondanti l’esistenza di tale ultima previsione e in considerazione del dato incontrovertibile che oggi l’ordinamento fonda sul contratto sia i rapporti di impiego pubblico sia quelli di impiego privato, giunge ad individuare un unitario principio secondo il quale è illecito lo svolgimento, da parte del lavoratore, di attività inconciliabili con gli interessi che costituiscono la giustificazione profonda dell’attività del datore di lavoro. Si tratterebbe, insomma, di “un generale principio di tutela dell’interesse pubblico al regolare svolgimento dell’attività del datore, che si concretizza in entrambi i casi nel sorgere di obbligazioni negative (di non fare/di astenersi) in capo al lavoratore, riferite alle attività concorrenziali e a quelle incompatibili”(Cap III, 3.3) rispettivamente nel privato e nel pubblico Alla luce della esposta conclusione, l’autore auspica che tutto il sistema delle incompatibilità venga ridisegnato in una prospettiva che tenga conto dell’esigenza di uniformare al massimo le regole che governano il lavoro, indipendentemente dalla soggettività (pubblica o privata) dei datori. Un simile obiettivo, in termini di coerenza ed efficacia, appare perseguibile a partire dal modello disegnato dall’art. 53 del D.Lgvo 165/01 in materia di incarichi autorizzabili.
Resumo:
Members of the genera Campylobacter and Helicobacter have been in the spotlight in recent decades because of their status as animals and/or humans pathogens, both confirmed and emerging, and because of their association with food-borne and zoonotic diseases. First observations of spiral shaped bacteria or Campylobacter-like organisms (CLO) date back to the end of the 19th century, however the lack of adequate isolation methods hampered further research. With the introduction of methods such as selective media and a filtration procedure during the 1970s led to a renewed interest in Campylobacter, especially as this enabled elucidation of their role in human hosts. On the other hand the classification and identification of these bacteria was troublesome, mainly because of the biochemical inertness and fastidious growth requirements. In 1991, the taxonomy of Campylobacter and related organisms was thoroughly revised, since this revision several new Campylobacter and Helicobacter species have been described. Moreover, thanks to the introduction of a polyphasic taxonomic practice, the classification of these novel species is well-founded. Indeed, a polyphasic approach was here followed for characterizing eight isolates obtained from rabbits epidemiologically not correlated and as a result a new Campylobacter species was proposed: Campylobacter cuniculorum (Chapter 1). Furthermore, there is a paucity of data regarding the occurrence of spiral shaped enteric flora in leporids. In order to define the prevalence both of this new species and other CLO in leporids (chapter 2), a total of 85 whole intestinal tracts of rabbits reared in 32 farms and 29 capture hares, epidemiologically not correlated, were collected just after evisceration at the slaughterhouse or during necroscopy. Examination and isolation methods were varied in order to increase the sensibility level of detection, and 100% of rabbit farms resulted positive for C. cuniculorum in high concentrations. Moreover, in 3.53% of the total rabbits examined, a Helicobacter species was detected. Nevertheless, all hares resulted negative both for Campylobacter or Helicobacter species. High prevalence of C. cuniculorum were found in rabbits, and in order to understand if this new species could play a pathological role, a study on some virulence determinants of C. cuniculorum was conducted (Chapter 3). Although this new species were able to adhere and invade, exert cytolethal distending toxin-like effects although at a low titre, a cdtB was not detected. There was no clear relationship between source of isolation or disease manifestation and possession of statistically significantly levels of particular virulence-associated factors although, cell adhesion and invasion occurred. Furthermore, antibiotic susceptibility was studied (chapter 4) in Campylobacter and in Escherichia coli strains, isolated from rabbits. It was possible to find acquired resistance of C. cuniculorum to enrofloxacin, ciprofloxacin and erytromycin. C. coli isolate was susceptible to all antimicrobial tested and moreover it is considered as a wild-type strain. Moreover, E. coli was found at low caecal concentration in rabbits and 30 phenotypes of antibiotic resistance were founded as well as the high rate of resistances to at least one antibiotic (98.1%). The majority of resistances were found from strains belonging to intensive farming system. In conclusion, in the course of the present study a new species isolated from rabbits was described, C. cuniculorum, and its high prevalence was established. Nevertheless, in hare samples no Campylobacter and Helicobacter species were detected. Some virulence determinants were further analyzed, however further studied are needed to understand the potential pathogenicity of this new species. On the other hand, antimicrobial susceptibility was monitored both in C. cuniculorum and indicator bacteria and acquired resistance was observed towards some antibiotics, indicating a possible role of rabbitries in the diffusion of antibiotic resistance. Further studies are necessary to describe and evaluate the eventual zoonotic role of Campylobacter cuniculorum.
Resumo:
La crescita normale di un individuo è il risultato dell’azione coordinata di molteplici ormoni e recettori codificati da geni e a tal proposito, discreto interesse è stato dato ai geni tipici dell’asse del GH. Tuttavia altri geni, più a monte di questi e responsabili dello sviluppo dell’ipofisi contribuiscono alla crescita normale o patologica. Alcuni geni studiati sono POU1F1, PROP1, LHX3, LHX4, HESX1, SOX3 e svariate loro mutazioni sono state identificate come causa di panipopituarismo (CPHD=Combined Pituitary Hormone Deficiency). In realtà la ricerca genetica non spiega ancora molte anomalie ipofisarie e molte mutazioni devono ancora essere identificate. Uno degli scopi del dottorato, svoltosi nel laboratorio di Genetica molecolare di Pediatria, è stata l’identificazione di mutazioni geniche da un gruppo di pazienti CPHD considerando in particolare i geni POU1F1, LHX3, SOX3, non ancora messi a punto presso il laboratorio. L’approccio sperimentale si è basato sulle seguenti fasi: prelievo delle informazioni di sequenza da GeneBank, progettazione di primers per amplificare le porzioni esoniche, messa a punto delle fasi della PCR e del sequenziamento, analisi della sequenza e confronto con le informazioni di sequenza depositate allo scopo di rintracciare eventuali mutazioni o varianti. La bassa percentuale di mutazioni in questi geni non ha permesso finora di rintracciare mutazioni nelle porzioni esoniche salvo che in un soggetto, nell’esone 6 di LHX3b (nuova mutazione, recessiva eterozigote, c.1248A>G implicata nella mutazione p.T377A della sequenza proteica). Un metodo di screening di questa mutazione impiegando l’enzima di restrizione SacII è stato usato, senza rilevare nessun altra occorrenza dell’allele mutato in 53 soggetti di controllo. Oltre alla messa a punto del sequenziamento e di alcune tecniche di analisi di singoli SNP o piccoli INDELs per i 3 geni, la ricerca svolta è stata orientata all’impiego di metodi di rilevamento di riarrangiamenti genetici comportanti ampie delezioni e/o variazioni del copy-number di esoni/interi geni detto MLPA (Multiplex Ligation-dependent Probe Amplification) e progettato da MRC-Holland. Il sequenziamento infatti non permette di rilevare tali alterazioni quando sono ampie ed in eterozigosi. Per esempio, in un’ampia delezione in eterozigosi, l’intervallo delimitato dai primers usati per la PCR può non includere totalmente la porzione interessata da delezione su un cromosoma cosicché la PCR ed il sequnziamento si basano solo sulle informazioni dell’altro cromosoma non deleto. Un vantaggio della tecnica MLPA, è l’analisi contemporanea di una quarantina di siti posti su svariati geni. Questa metodo tuttavia può essere affetto da un certo margine di errore spesso dipendente dalla qualità del DNA e dovrebbe essere affiancato e validato da altre tecniche più impegnativa dal punto di vista sperimentale ma più solide, per esempio la Real Time PCR detta anche PCR quantitativa (qPCR). In laboratorio, grazie all’MLPA si è verificata la condizione di delezione eterozigote di un paziente “storico” per il gene GH1 e la stessa mutazione è stata rilevata anche con la qPCR usando lo strumento Corbett Rotor Gene 6000 (Explera). Invece un’analisi solo con la qPCR di variazioni del copy-number (CNV) per SOX3 in pazienti maschili non ha ancora evidenziato anomalie. Entrambe le tecniche hanno aspetti interessanti, il miglior approccio al momento sembra un’analisi iniziale di pazienti con l’MLPA, seguita dalla verifica di un eventuale esito anomalo impiegando la real-time PCR.
Resumo:
Con questa tesi abbiamo messo a punto una metodologia per l'applicazione del "corpus-based approach" allo studio dell'interpretazione simultanea, creando DIRSI-C, un corpus elettronico parallelo (italiano-inglese) e allineato di trascrizioni di registrazioni tratte da convegni medici, mediati da interpreti simultaneisti. Poiché gli interpreti professionisti coinvolti hanno lavorato dalla lingua straniera alla loro lingua materna e viceversa, il fattore direzionalità è il parametro di analisi delle prestazioni degli interpreti secondo i metodi di indagine della linguistica dei corpora. In this doctoral thesis a methodology was developed to fully apply the corpus-based approach to simultaneous interpreting research. DIRSI-C is a parallel (Italian-English/English-Italian) and aligned electronic corpus, containing transcripts of recorded medical international conferences with professional simultaneous interpreters working both from and into their foreign language. Against this backdrop, directionality represents the research parameter used to analyze interpreters' performance by means of corpus linguistics tools.
Il pensiero politico internazionale di Montesquieu: tra la geopolitica e le relazioni internazionali
Resumo:
La tesi ha mostrato come il pensiero politico di Montesquieu possa costituire un utile riferimento teorico per affrontare il problema della ricontestualizzazione dello studio delle relazioni internazionali. La prima parte del lavoro evidenzia alcuni aspetti del metodo di ricerca e del pensiero politico di Montesquieu. Nel primo capitolo, è stato identificato un metodo di ricerca ed un approccio sociologico nello studio della politica, che rappresenta un precedente rispetto alla fondazione di una scienza politica che si propone di identificare nessi causali tra i fenomeni politici. In particolare, si deve riconoscere a Montesquieu il merito di aver introdotto un tipo di analisi della politica che consideri l’interazione di più fattori tra loro. La complessità del reale può essere spiegata soltanto identificando i rapporti che si formano tra gli elementi della realtà. Quindi è possibile porre dei principi in grado di produrre un ordine conoscibile ed interpretabile di tutti questi elementi. Nel secondo capitolo è stata presentata un’analisi delle tipologie delle forme di governo e del concetto di libertà politica. Questo capitolo ha evidenziato solo alcuni aspetti del pensiero politico di Montesquieu utili alla comprensione del pensiero politico internazionale. In particolare, è stata analizzata la struttura e il ressort di ogni forma di governo sottolineando gli aspetti di corruzione e i relativi processi di mutamento. La seconda parte del lavoro ha affrontato l’analisi di un pensiero politico internazionale ed ha evidenziato la rilevanza di una riflessione geopolitica. Nel terzo capitolo abbiamo mostrato l’emersione di una riflessione su alcuni argomenti di relazioni internazionali, quali il problema della guerra e della pace, il diritto internazionale e l’interdipendenza economica, legandoli alle forme di governo. Quindi sono stati identificati ed analizzati tre modelli di sistema internazionale sottolineando in particolare il nesso con il concetto di società internazionale. Tra questi modelli di sistema internazionale, quello che presenta le caratteristiche più singolari, è certamente il sistema della federazione di repubbliche. Infine, nell’ultimo capitolo, abbiamo evidenziato l’importanza della rappresentazione spaziale del mondo di Montesquieu e l’uso di categorie concettuali e metodi di analisi della geopolitica. In particolare, è stata rilevata l’importanza dell’aspetto dimensionale per la comprensione delle dinamiche di ascesa e declino delle forme di Stato e delle forme di governo. Si è mostrato come non sia possibile ascrivere il pensiero di Montesquieu nella categoria del determinismo geografico o climatico. Al contrario, abbiamo evidenziato come tale pensiero possa essere considerato un precedente di una corrente di pensiero della geopolitica francese definita “possibilismo”. Secondo questa teoria i fattori ambientali, più che esercitare un’azione diretta sul comportamento dell’uomo, agiscono selezionando il campo delle scelte possibili.
Resumo:
L’attività di ricerca contenuta in questa tesi si è concentrata nello sviluppo e nell’implementazione di tecniche per la co-simulazione e il co-progetto non lineare/elettromagnetico di sistemi wireless non convenzionali. Questo lavoro presenta un metodo rigoroso per considerare le interazioni tra due sistemi posti sia in condizioni di campo vicino che in condizioni di campo lontano. In sostanza, gli effetti del sistema trasmittente sono rappresentati da un generatore equivalente di Norton posto in parallelo all’antenna del sistema ricevente, calcolato per mezzo del teorema di reciprocità e del teorema di equivalenza. La correttezza del metodo è stata verificata per mezzo di simulazioni e misure, concordi tra loro. La stessa teoria, ampliata con l’introduzione degli effetti di scattering, è stata usata per valutare una condizione analoga, dove l’elemento trasmittente coincide con quello ricevente (DIE) contenuto all’interno di una struttura metallica (package). I risultati sono stati confrontati con i medesimi ottenibili tramite tecniche FEM e FDTD/FIT, che richiedono tempi di simulazione maggiori di un ordine di grandezza. Grazie ai metodi di co-simulazione non lineari/EM sopra esposti, è stato progettato e verificato un sistema di localizzazione e identificazione di oggetti taggati posti in ambiente indoor. Questo è stato ottenuto dotando il sistema di lettura, denominato RID (Remotely Identify and Detect), di funzioni di scansione angolare e della tecnica di RADAR mono-pulse. Il sistema sperimentale, creato con dispositivi low cost, opera a 2.5 GHz ed ha le dimensioni paragonabili ad un normale PDA. E’ stato sperimentata la capacità del RID di localizzare, in scenari indoor, oggetti statici e in movimento.
Resumo:
Questa dissertazione tratterà l’argomento dello studio di metodi di progettazione e processi tecnologici innovativi per l’industrializzazione in medio-grande serie di componenti strutturali in materiale composito. L’interesse della ricerca verso questo ambito è suscitato dai notevoli vantaggi che l’utilizzo di materiali dall’alto rapporto prestazioni meccaniche/peso danno nella ricerca di elevate prestazioni in applicazioni sportive e diminuzione dei consumi ed emissioni inquinanti in mezzi di trasporto di grande serie. Lo studio di componenti in materiale composito è caratterizzato dalla peculiarità di non poter disgiungere la progettazione della geometria della parte da quella del materiale e del processo, ed in questo senso nella figura del progettista si vanno a riassumere sinergicamente competenze riguardanti i tre ambiti. Lo scopo di questo lavoro è la proposizione di una metodologia di progettazione e produzione di componenti strutturali che permetta l’utilizzazione ottimale della natura fibrosa del materiale composito sia dal punto di vista del trasferimento dei carichi tra diversi componenti, sia dal punto di vista del processo di laminazione che avviene per nastratura automatizzata. Lo studio è volto a mostrare in quali termini tale tecnologia sia potenzialmente in grado di superare i vincoli di forma ed i limiti di efficienza meccanica delle giunzioni tra le parti e di garantire maggiore produttività e costi inferiori rispetti ai diversi metodi di produzione che rappresentano oggi lo stato dell’arte dell’industrializzazione in medio-grande serie. Particolare attenzione verrà posta sull’utilizzo della tecnologia oggetto di studio per la produzione di telai automobilistici.
Resumo:
Il presente lavoro ha lo scopo di presentare gli studi e i risultati ottenuti durante l’attività di ricerca svolta sul Displacement-based Assessment (DBA) dei telai in cemento armato. Dopo alcune considerazioni iniziali sul tema della vulnerabilità sismica e sui metodi di analisi e verifica, si procede alla descrizione teorica del metodo. Sono stati analizzati tre casi studio di telai piani, progettati per soli carichi verticali e secondo normative non più in vigore che non prevedevano l’applicazione della gerarchia delle resistenze. I telai considerati, destinati ad abitazione civile, hanno diversa altezza e numero di piani, e diverso numero di campate. Si è proceduto all’applicazione del metodo, alla valutazione della vulnerabilità sismica in base alla domanda in termini di spostamento costituita da uno spettro elastico previsto dall’EC8 e alla validazione dei risultati ottenuti mediante analisi non lineari statiche e dinamiche e mediante l’applicazione dei teoremi dell’Analisi limite dei telai, proposta come procedura alternativa per la determinazione del meccanismo anelastico e della capacità in termini di taglio alla base. In ultimo si è applicata la procedura DBA per la valutazione della vulnerabilità sismica di un edificio scolastico, realizzato tra il 1969 e il 1975 in un sito caratterizzato da una accelerazione di picco orizzontale pari a 0,24g e una probabilità di superamento del 10% in 75 anni.
Resumo:
La possibilità di monitorare la presenza di residui di farmaci veterinari e contaminanti biologici negli alimenti può trarre beneficio dall’uso di metodi di screening affidabili e di facile utilizzo. A tal fine, sono in fase di sviluppo molteplici applicazioni di biosensori in grado di coniugare sistemi di rilevamento biologico-specifici con trasduttori elettronici o ottici capaci di rilevare, amplificare, elaborare e misurare il segnale derivante dall’interazione tra un substrato costituito da enzimi, anticorpi o apteni e contaminanti ambientali o alimentari. Lo sviluppo di biosensori permette di rilevare la presenza di quantità residuali di un determinato analita in varie matrici sia animali che alimentari. Per questo Progetto di Ricerca sono state messe a punto tecniche di analisi elettrochimiche per rilevare quantitativamente la presenza di istamina e di batteri istaminogeni in campioni di pesce e determinare la presenza di ceppi di Escherichia coli nel latte crudo. Sono stati condotti anche degli studi riguardanti la presenza di residui di farmaci veterinari negli alimenti. Lo scopo di queste ricerche era quello di: • Sviluppare diversi tipi di sensori elettrochimici ed immunoenzimatici e valutare le loro potenzialità come metodi di analisi rapida. • Validare i risultati mediante comparazione con metodi analitici di riferimento. • Avviare uno studio per lo sviluppo di biosensori basato sulla valutazione del rischio