999 resultados para Nato - jäsenyys - Baltian maat
Resumo:
Definizione del problema: Nonostante il progresso della biotecnologia medica abbia consentito la sopravvivenza del feto, fuori dall’utero materno, ad età gestazionali sempre più basse, la prognosi a breve e a lungo termine di ogni nuovo nato resta spesso incerta e la medicina non è sempre in grado di rimediare completamente e definitivamente ai danni alla salute che spesso contribuisce a causare. Sottoporre tempestivamente i neonati estremamente prematuri alle cure intensive non ne garantisce la sopravvivenza; allo stesso modo, astenervisi non ne garantisce la morte o almeno la morte immediata; in entrambi i casi i danni alla salute (difetti della vista e dell’udito, cecità, sordità, paralisi degli arti, deficit motori, ritardo mentale, disturbi dell’apprendimento e del comportamento) possono essere gravi e permanenti ma non sono prevedibili con certezza per ogni singolo neonato. Il futuro ignoto di ogni nuovo nato, insieme allo sgretolamento di terreni morali condivisi, costringono ad affrontare laceranti dilemmi morali sull’inizio e sul rifiuto, sulla continuazione e sulla sospensione delle cure. Oggetto: Questo lavoro si propone di svolgere un’analisi critica di alcune strategie teoriche e pratiche con le quali, nell’ambito delle cure intensive ai neonati prematuri, la comunità scientifica, i bioeticisti e il diritto tentano di aggirare o di risolvere l’incertezza scientifica e morale. Tali strategie sono accomunate dalla ricerca di criteri morali oggettivi, o almeno intersoggettivi, che consentano ai decisori sostituti di pervenire ad un accordo e di salvaguardare il vero bene del paziente. I criteri esaminati vanno dai dati scientifici riguardanti la prognosi dei prematuri, a “fatti” di natura più strettamente morale come la sofferenza del paziente, il rispetto della libertà di coscienza del medico, l’interesse del neonato a sopravvivere e a vivere bene. Obiettivo: Scopo di questa analisi consiste nel verificare se effettivamente tali strategie riescano a risolvere l’incertezza morale o se invece lascino aperto il dilemma morale delle cure intensive neonatali. In quest’ultimo caso si cercherà di trovare una risposta alla domanda “chi deve decidere per il neonato?” Metodologia e strumenti: Vengono esaminati i più importanti documenti scientifici internazionali riguardanti le raccomandazioni mediche di cura e i pareri della comunità scientifica; gli studi scientifici riguardanti lo stato dell’arte delle conoscenze e degli strumenti terapeutici disponibili ad oggi; i pareri di importanti bioeticisti e gli approcci decisionali più frequentemente proposti ed adoperati; alcuni documenti giuridici internazionali riguardanti la regolamentazione della sperimentazione clinica; alcune pronunce giudiziarie significative riguardanti casi di intervento o astensione dall’intervento medico senza o contro il consenso dei genitori; alcune indagini sulle opinioni dei medici e sulla prassi medica internazionale; le teorie etiche più rilevanti riguardanti i criteri di scelta del legittimo decisore sostituto del neonato e la definizione dei suoi “migliori interessi” da un punto di vista filosofico-morale. Struttura: Nel primo capitolo si ricostruiscono le tappe più importanti della storia delle cure intensive neonatali, con particolare attenzione agli sviluppi dell’assistenza respiratoria negli ultimi decenni. In tal modo vengono messi in luce sia i cambiamenti morali e sociali prodotti dalla meccanizzazione e dalla medicalizzazione dell’assistenza neonatale, sia la continuità della medicina neonatale con il tradizionale paternalismo medico, con i suoi limiti teorici e pratici e con lo sconfinare della pratica terapeutica nella sperimentazione incontrollata. Nel secondo capitolo si sottopongono ad esame critico le prime tre strategie di soluzione dell’incertezza scientifica e morale. La prima consiste nel decidere la “sorte” di un singolo paziente in base ai dati statistici riguardanti la prognosi di tutti i nati in condizioni cliniche analoghe (“approccio statistico”); la seconda, in base alla risposta del singolo paziente alle terapie (“approccio prognostico individualizzato”); la terza, in base all’evoluzione delle condizioni cliniche individuali osservate durante un periodo di trattamento “aggressivo” abbastanza lungo da consentire la raccolta dei dati clinici utili a formulare una prognosi sicura(“approccio del trattamento fino alla certezza”). Viene dedicata una più ampia trattazione alla prima strategia perché l’uso degli studi scientifici per predire la prognosi di ogni nuovo nato accomuna i tre approcci e costituisce la strategia più diffusa ed emblematica di aggiramento dell’incertezza. Essa consiste nella costruzione di un’ “etica basata sull’evidenza”, in analogia alla “medicina basata sull’evidenza”, in quanto ambisce a fondare i doveri morali dei medici e dei genitori solo su fatti verificabili (le prove scientifiche di efficacia delle cure)apparentemente indiscutibili, avalutativi o autocertificativi della moralità delle scelte. Poiché la forza retorica di questa strategia poggia proprio su una (parziale) negazione dell’incertezza dei dati scientifici e sulla presunzione di irrilevanza della pluralità e della complessità dei valori morali nelle decisioni mediche, per metterne in luce i limiti si è scelto di dedicare la maggior parte del secondo capitolo alla discussione dei limiti di validità scientifica degli studi prognostici di cui i medici si avvalgono per predire la prognosi di ogni nuovo nato. Allo stesso scopo, in questo capitolo vengono messe in luce la falsa neutralità morale dei giudizi scientifici di “efficacia”, “prognosi buona”, “prognosi infausta” e di “tollerabilità del rischio” o dei “costi”. Nel terzo capitolo viene affrontata la questione della natura sperimentale delle cure intensive per i neonati prematuri al fine di suggerire un’ulteriore ragione dell’incertezza morale, dell’insostenibilità di obblighi medici di trattamento e della svalutazione dell’istituto del consenso libero e informato dei genitori del neonato. Viene poi documentata l’esistenza di due atteggiamenti opposti manifestati dalla comunità scientifica, dai bioeticisti e dal diritto: da una parte il silenzio sulla natura sperimentale delle terapie e dall’altra l’autocertificazione morale della sperimentazione incontrollata. In seguito si cerca di mostrare come entrambi, sebbene opposti, siano orientati ad occultare l’incertezza e la complessità delle cure ai neonati prematuri, per riaffermare, in tal modo, la precedenza dell’autorità decisionale del medico rispetto a quella dei genitori. Il quarto capitolo, cerca di rispondere alla domanda “chi deve decidere in condizioni di incertezza?”. Viene delineata, perciò, un’altra strategia di risoluzione dell’incertezza: la definizione del miglior interesse (best interest) del neonato, come oggetto, limite e scopo ultimo delle decisioni mediche, qualsiasi esse siano. Viene verificata l’ipotesi che il legittimo decisore ultimo sia colui che conosce meglio di ogni altro i migliori interessi del neonato. Perciò, in questo capitolo vengono esposte e criticate alcune teorie filosofiche sul concetto di “miglior interesse” applicato allo speciale status del neonato. Poiché quest’analisi, rivelando l’inconoscibilità del best interest del neonato, non consente di stabilire con sicurezza chi sia intitolato a prendere la decisione ultima, nell’ultimo capitolo vengono esaminate altre ragioni per le quali i genitori dovrebbero avere l’ultima parola nelle decisioni di fine o di proseguimento della vita. Dopo averle scartate, viene proposta una ragione alternativa che, sebbene non risolutiva, si ritiene abbia il merito di riconoscere e di non mortificare l’irriducibilità dell’incertezza e l’estrema complessità delle scelte morali, senza rischiare, però, la paralisi decisionale, il nichilismo morale e la risoluzione non pacifica dei conflitti.
Resumo:
This study focus on pathologies - caused by impoverished uranium and other heavy-metals’ nanoparticles environmental pollution - developed in international military personnel deployed in critical areas; the pathologies are then placed in a general and chronological schema. This study shows an impressive collection of data on impoverished uranium characteristics and its employment in civil and military context and a map of impoverished uranium most polluted areas. The studies on this subject commissioned by two Italian Parliamentary Court of Inquiry and by other nations are then analyzed. Further etiopathogenetic hypothesis are assessed – as multivaccination – comparing vaccination protocols adopted by different NATO nations and their possible effects. Finally the study defines the objectives and the operational protocols of an ongoing epidemiological serial prospective study (time-frame scheduled of 30 years) on military personnel deployed in critical areas for the possible presence of genotoxic agents.
Resumo:
Il presente lavoro di tesi si inserisce nel Progetto “Monitoraggio dei sedimenti del litorale” dell’ARPA-Agenzia Regionale Prevenzione e Ambiente, e ne prende in considerazione parte dei risultati. Il progetto è nato con l’obiettivo di fornire una caratterizzazione dei sedimenti della costa emiliano-romagnola sommersa. Nello specifico questa tesi ha riguardato l’apprendimento e l’esecuzione delle analisi ecotossicologiche dei sedimenti compiute su due specie, l’Ampelisca diadema (Costa, 1853) e il Paracentrotus lividus (Lamarck, 1816), allo scopo di determinare lo stato di contaminazione dei sedimenti considerati e classificarli secondo classi di giudizio di tossicità predefinite. A tali test ecotossicologici sono stati sottoposti campioni di sedimenti campionati nel 2010 in 104 siti e 4 diverse batimetrie posti lungo tutto il litorale emiliano-romagnolo. I risultati ottenuti nell’ambito dei due test ecotossicologici sono stati analizzati separatamente e confrontati con dati riguardanti la batimetria e le caratteristiche chimico-fisiche dei sedimenti raccolti (granulometria, contenuto di contaminanti) al fine di poter spiegare il ruolo delle componenti abiotiche nella definizione della tossicità. A tale scopo sono state eseguite delle analisi univariate e multivariate (PCA) dei dati. In seguito si sono stati comparati i risultati ottenuti nei due test. Il presente lavoro ha permesso di avere un quadro preliminare dello stato di contaminazione dei sedimenti della costa sommersa dell’Emilia-Romagna
Resumo:
Negli ultimi anni si è sviluppata una forte sensibilità nei confronti del rischio che il dissesto idrogeologico comporta per il territorio, soprattutto in un paese come il nostro, densamente abitato e geologicamente fragile. Il rischio idrogeologico In Italia infatti è diffuso in modo capillare e si presenta in modo differente a seconda dell’assetto geomorfologico del territorio. Tra i fattori naturali che predispongono il nostro territorio a frane ed alluvioni, rientra la conformazione geologica e geomorfologica, caratterizzata da un’orografia giovane e da rilievi in via di sollevamento. A seguito del verificarsi di una serie di eventi calamitosi (Piemonte 1994, Campania 1998 e 1999, Sovereto 2000, Alpi centrali 2000 e 2002) sono state emanate leggi specifiche finalizzate all’individuazione e all’applicazione di norme, volte a prevenire e contenere i gravi effetti derivanti dai fenomeni di dissesto. Si fa riferimento in particolare, alle leggi n°267 del 3/08/1998 e 365/2000 che hanno integrato la legge 183/1989. In questo modo gli enti territoriali (Regioni, Autorità di bacino) sono stati obbligati a predisporre una adeguata cartografia con perimetrazione delle aree a differente pericolosità e rischio. Parallelamente continuano ad essere intrapresi, promossi e finanziati numerosi studi scientifici volti allo studio dei fenomeni ed alla definizione più puntuale delle condizioni di rischio, oltre alle iniziative volte alla creazione di un efficace sistema di allertamento e di sorveglianza dei fenomeni e alla messa a punto di una pianificazione di emergenza volta a coordinare in modo efficace la risposta delle istituzioni agli eventi. In questo contesto gli studi su validi approcci metodologici per l’analisi e la valutazione del rischio possono fornire un supporto al processo decisionale delle autorità preposte alla gestione del territorio, identificando gli scenari di rischio e le possibili strategie di mitigazione, e individuando la soluzione migliore in termini di accettabilità sociale e convenienza economica. Nel presente elaborato si vuole descrivere i temi relativi alla valutazione della pericolosità, del rischio e della sua gestione, con particolare attenzione ai fenomeni di instabilità dei versanti e nello specifico ai fenomeni di crollo da pareti rocciose che interessano il territorio della Provincia Autonoma di Bolzano. Il fenomeno della caduta massi infatti è comunemente diffuso in tutte le regioni di montagna e lungo le falesie costiere, ed in funzione dell’elevata velocità con cui si manifesta può costituire una costante fonte di pericolo per le vite, i beni e le attività umane in zone generalmente molto attive dal punto di vista del turismo e delle grandi vie di comunicazione. Il territorio della Provincia Autonoma di Bolzano è fortemente interessato da questo problema, sia per la morfologia montuosa della provincia che per le infrastrutture che sempre più occupano zone di territorio un tempo poco urbanizzate. Al fine di pervenire ad una legittima programmazione delle attività di previsione e prevenzione, il Dipartimento dei Lavori Pubblici della Provincia, ha scelto di utilizzare una strategia che prevedesse un insieme di attività dirette allo studio ed alla determinazione delle cause dei fenomeni calamitosi, alla identificazione dei rischi, ed alla determinazione delle zone del territorio soggette ai rischi stessi. E’ nato così, con l’operatività dell’Ufficio Geologia e Prove Materiali, il supporto del Dipartimento Opere Pubbliche e della Ripartizione Protezione Civile e la collaborazione scientifica del DISTART – Università degli Studi di Bologna, Alma Mater Studiorum, il progetto VISO che riguarda i pericoli generati da frane di crollo, ribaltamento, scivolamento di porzioni di pareti rocciose e caduta massi. Il progetto ha come scopo la valutazione del pericolo, della vulnerabilità e del rischio e dell’effettiva funzionalità delle opere di protezione contro la caduta massi lungo la strada statale del Brennero. Il presente elaborato mostra l’iter per l’individuazione del rischio specifico che caratterizza un particolare tratto stradale, così come è stato pensato dalla Provincia Autonoma di Bolzano all’interno di una strategia di previsione e prevenzione, basata su metodi il più possibile oggettivi, ed estesa all’intera rete stradale di competenza provinciale. Si esamina l’uso di metodologie diverse per calcolare l’intensità di un fenomeno franoso che potrebbe potenzialmente svilupparsi su un versante e si osserva in che modo la presenza di opere di protezione passiva influisce sull’analisi di pericolosità. Nel primo capitolo viene presentata una panoramica sui fenomeni di crollo descrivendo i fattori principali che li originano e gli interventi di protezione posti a difesa del versante. Si esaminano brevemente le tipologie di intervento, classificate in opere attive e passive, con particolare attenzione alle barriere paramassi., che si collocano tra gli interventi di difesa passivi e che stanno diventando il tipo di intervento più frequentemente utilizzato. Nel capitolo vengono descritte dal punto di vista progettuale, prendendo in esame anche la normativa di riferimento nonché le nuove linee guida per la certificazione CE delle barriere, nate negli ultimi anni per portare ad una facile comparabilità dei vari prodotti sottoposti ad impatti normalizzati, definendo con chiarezza i livelli energetici ai quali possono essere utilizzati i vari prodotti e, nel contempo, fornendo informazioni assolutamente indispensabili per la buona progettazione degli stessi. Nel capitolo successivo si prendono in esame i temi relativi alla valutazione della pericolosità e del rischio, l’iter procedurale di analisi del rischio adottato dalla Provincia Autonoma di Bolzano in relazione alle frane da crollo che investono le strade della rete provinciale ed in particolare viene descritto il progetto VISO (Viability Information Operating System), nato allo scopo di implementare un catasto informatizzato che raccolga indicazioni sul patrimonio delle opere di protezione contro la caduta massi e di rilevare e valutare il pericolo, la vulnerabilità, il rischio e l’effettiva funzionalità delle opere di protezione contro la caduta massi lungo le strade statali e provinciali. All’interno dello stesso capitolo si espone come, nell’ambito del progetto VISO e grazie alla nascita del progetto europeo Paramount ” (Improved accessibility reliability and safety of Alpine tran sport infrastructure related to mountainous hazard in a changing climate) si è provveduto, con l’aiuto di una collega del corso di laurea, a raccogliere i dati relativi all’installazione delle barriere paramassi sul territorio della Provincia Autonoma di Bolzano. Grazie ad un’analisi di archivio effettuata all’interno delle diverse sedi del servizio strade della Provincia Autonoma di Bolzano, si è presa visione (laddove presenti) delle schede tecniche delle barriere collocate sul territorio, si sono integrati i dettagli costruttivi contattando le principali ditte fornitrici e si è proceduto con una classificazione delle opere, identificando alcuni modelli di “barriere-tipo che sono stati inseriti nel database PARAMOUNT, già creato per il progetto VISO. Si è proseguito associando a tali modelli le barriere provviste di documentazione fotografica rilevate in precedenza dall’istituto di Geologia della Provincia Autonoma di Bolzano e inserite in VISO e si è valutata la corrispondenza dei modelli creati, andando a verificare sul posto che le barriere presenti sul territorio ed inserite nel database (tramite modello), effettivamente coincidessero, nelle misure e per le caratteristiche geometrico-costruttive, ai modelli a cui erano state associate. Inoltre sono stati considerati i danni tipici a cui può essere soggetta una barriera paramassi durante il suo periodo di esercizio poiché tali difetti andranno ad incidere sulla valutazione dell’utilità del sistema di difesa e di conseguenza sulla valutazione della pericolosità del versante(H*). Nel terzo capitolo si è esposta una possibile integrazione, mediante il software di calcolo RocFall, della procedura di valutazione dell’analisi di pericolosità di un versante utilizzata nell’ambito del progetto VISO e già analizzata in dettaglio nel secondo capitolo. Il software RocFall utilizza un metodo lumped mass su schema bidimensionale basato su ipotesi semplificative e consente di effettuare simulazioni probabilistiche di fenomeni di caduta massi, offrendo importanti informazioni sull’energia che si sviluppa durante il crollo, sulle velocità raggiunte e sulle altezze di rimbalzo lungo tutto il versante considerato, nonché sulla distanza di arresto dei singoli massi. Si sono realizzati dei profili-tipo da associare al versante, considerando il pendio suddiviso in tre parti : parete verticale (H = 100 m) lungo la quale si sviluppa il movimento franoso; pendio di altezza H = 100 m e angolo pari ai quattro valori medi della pendenza indicati nella scheda di campagna; strada (L = 10 m). Utilizzando il software Cad si sono realizzati 16 profili associando la pendenza media del versante a 4 morfologie individuate grazie all’esperienza dell’Istituto di Geologia e Prove materiali della Provincia Autonoma di Bolzano; si è proceduto importando tali profili in RocFall dove sono state aggiunte informazioni riguardanti la massa del blocco e l’uso del suolo, ottenendo 256 profili-tipo ai quali è stata associata una sigla definita come segue : morfologia (1, 2, 3, 4) _ pendenza (37, 53, 67, 83 gradi) _ uso del suolo (A, B, C, D) _ massa (a,b,c,d). Fissando i parametri corrispondenti al peso del masso ( inserito al solo scopo di calcolare la velocità rotazionale e l’energia cinetica ) e considerando, per ogni simulazione, un numero di traiettorie possibili pari a 1000, avendo osservato che all’aumentare di tale numero (purchè sufficientemente elevato) non si riscontrano variazioni sostanziali nei risultati dell’analisi, si è valutato come i parametri uso del suolo (A;B;C;D), morfologia (1;2;3;4) e pendenza (37°;53°;67°;83°) incidano sulla variazione di energia cinetica, di altezza di rimbalzo e sulla percentuale di massi che raggiunge la strada, scegliendo come punto di riferimento il punto di intersezione tra il pendio e la strada. Al fine di realizzare un confronto tra un profilo reale e un profilo-tipo, sono stati utilizzati 4 profili posti su un versante situato nel Comune di Laives, noto per le frequenti cadute di massi che hanno raggiunto in molti casi la strada. Tali profili sono stati visionati in sede di sopralluogo dove si è provveduto alla compilazione delle schede di campagna (impiegate per valutare l’intensità del fenomeno che potenzialmente si sviluppa dal versante) e all’individuazione dei profili-tipo corrispondenti. Sono state effettuate analisi di simulazione per entrambe le tipologie di profilo, e sono stati confrontati i risultati ottenuti in termini di Energia cinetica; altezza di rimbalzo e percentuale dei blocchi in corrispondenza della strada. I profili reali sono stati importati in RocFal in seguito ad estrapolazione dal modello digitale del terreno (ottenuto da analisi con Laser Scanner) utilizzando l’ estensione Easy Profiler nel software Arcmap. Infine si è valutata la possibilità di collocare eventuali barriere paramassi su un profilo reale, si è proceduto effettuando una analisi di simulazione di caduta massi in RocFall, importando in excel i valori corrispondenti all’andamento dei massimi dell’Energia cinetica e dell’altezza di rimbalzo lungo il pendio che forniscono una buona indicazione circa l´idonea ubicazione delle opere di protezione.
Resumo:
Il presente lavoro di tesi ha come punto focale la descrizione, la verifica e la dimostrazione della realizzabilità dei Workflow Patterns di Gestione del Flusso(Control-Flow) e Risorse (Resource) definiti da parte della Workflow Pattern Initiative (WPI)in JOLIE, un innovativo linguaggio di programmazione orientato ai servizi nato nell'ambito del Service Oriented Computing. Il Service Oriented Computing (SOC) è un nuovo modo di pensare la programmazione di applicazioni distribuite, i cui concetti fondamentali sono i servizi e la composizione. L’approccio SOC definisce la possibilità di costruire un’applicazione in funzione dei servizi che ne realizzano il comportamento tramite una loro composizione, definita secondo un particolare flusso di lavoro. Allo scopo di fornire la necessaria conoscenza per capire la teoria, le meccaniche e i costrutti di JOLIE utilizzati per la realizzazione dei pattern, il seguente lavoro di tesi è stato diviso in quattro parti, corrispondenti ad altrettanti capitoli. Nel primo capitolo viene riportata una descrizione generale del SOC e della Business Process Automation (BPA), che costituisce l’ambiente in cui il SOC è inserito. Per questo viene fatta una disamina della storia informatica sui sistemi distribuiti, fino ad arrivare ai sistemi odierni, presentando in seguito il contesto del BPA e delle innovazioni derivanti dalle sue macro-componenti, di cui il SOC fa parte. Continuando la descrizione dell’approccio Service Oriented, ne vengono presentati i requisiti (pre-condizioni) e si cerca di dare una definizione precisa del termine “servizio”, fino all'enunciazione dei principi SOC declinati nell’ottica delle Service Oriented Architectures, presentando in ultimo i metodi di composizione dei servizi, tramite orchestrazione e coreografia. L’ultima sezione del capitolo prende in considerazione il SOC in un’ottica prettamente industriale e ne evidenzia i punti strategici. Il secondo capitolo è incentrato sulla descrizione di JOLIE, gli aspetti fondamentali dell’approccio orientato ai servizi, che ne caratterizzano profondamente la definizione concettuale (SOCK), e la teoria della composizione dei servizi. Il capitolo non si pone come una descrizione esaustiva di tutte le funzionalità del linguaggio, ma considera soprattutto i concetti teorici, le strutture di dati, gli operatori e i costrutti di JOLIE utilizzati per la dimostrazione della realizzabilità dei Workflow Pattern del capitolo successivo. Il terzo capitolo, più lungo e centrale rispetto agli altri, riguarda la realizzazione dei workflow pattern in JOLIE. All'inizio del capitolo viene fornita una descrizione delle caratteristiche del WPI e dei Workflow Pattern in generale. In seguito, nelle due macro-sezioni relative ai Control-Flow e Resource pattern vengono esposte alcune nozioni riguardanti le metodologie di definizione dei pattern (e.g. la teoria sulla definizione delle Colored Petri Nets) e le convezioni adottate dal WPI, per passare in seguito al vero e proprio lavoro (sperimentale) di tesi riguardo la descrizione dei pattern, l’analisi sulla loro realizzabilità in JOLIE, insieme ad un codice di esempio che esemplifica quanto affermato dall'analisi. Come sommario delle conclusioni raggiunte sui pattern, alla fine di ognuna delle due sezioni definite in precedenza, è presente una scheda di valutazione che, con lo stesso metodo utilizzato e definito dalla WPI, permette di avere una rappresentazione generale della realizzabilità dei pattern in JOLIE. Il quarto capitolo riguarda gli esiti tratti dal lavoro di tesi, riportando un confronto tra le realizzazioni dei pattern in JOLIE e le valutazioni del WPI rispetto agli altri linguaggi da loro considerati e valutati. Sulla base di quanto ottenuto nel terzo capitolo vengono definite le conclusioni del lavoro portato avanti sui pattern e viene delineato un’eventuale scenario riguardante il proseguimento dell’opera concernente la validazione ed il completamento della studio. In ultimo vengono tratte alcune conclusioni sia riguardo JOLIE, nel contesto evolutivo del linguaggio e soprattutto del progetto open-source che è alla sua base, sia sul SOC, considerato nell’ambito del BPA e del suo attuale ambito di sviluppo dinamico.
Resumo:
A partire dagli anni '70, si è assistito ad un progressivo riassetto geopolitico a livello mondiale Grazie anche all’evoluzione tecnologica ed alla sua diffusione di massa, il tempo e lo spazio si contraggono nel processo di globalizzazione che ha caratterizzato le società contemporanee ove l'informazione e la comunicazione assumono ormai un ruolo centrale nelle dinamiche di conoscenza. Il presente studio, intende far luce in primis sulla disciplina dell'intelligence, così come enunciata in ambito militare e "civile", in particolare nel contesto USA, NATO ed ONU, al fine quindi di evidenziare le peculiarità di una nuova disciplina di intelligence, cosiddetta Open Source Intelligence, che ha come elemento di innovazione l'utilizio delle informazioni non classificate. Dopo aver affrontato il problema della concettualizzazione ed evoluzione del fenomeno terroristico, sarà posto il focus sull’espressione criminale ad oggi maggiormente preoccupante, il terrorismo internazionale di matrice islamica, in prospettiva multidimensionale, grazie all’adozione di concetti criminologici interdisciplinari. Sotto il profilo della sperimentazione, si è, quindi, deciso di proporre, progettare e sviluppare l’architettura della piattaforma Open Source Intellicence Analysis Platform,un tool operativo di supporto per l’analista Open Source Intelligence, che si pone quale risorsa del’analisi criminologica, in grado di fornire un valido contributo, grazie al merge tra practice e research, nell’applicazione di tale approccio informativo al fenomeno terroristico.
Resumo:
Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.
Resumo:
Oggetto della tesi di laurea è la riqualificazione energetica e funzionale dell’ex asilo Santarelli a Forlì. Il complesso sorge su un area al margine del tracciato delle mura storiche della città dove erano collocati gli orti medievali. Promosso dalla collettività e da numerosi enti caritatevoli come primo asilo laico della città, l’edificio venne progettato nel 1934 dall’ing Guido Savini, secondo i caratteri stilistici e compositivi dell’architettura razionalista e inaugurato da donna Rachele Mussolini nel 1937. L’edificio, di proprietà dell’O.A.S.I. A.S.P., ha svolto la sua attività educativa fino alla sua chiusura avvenuta a giugno 2012, a causa degli gli elevati costi di gestione e per l’inidoneità della struttura alle attuali necessità. L’amministrazione comunale ha manifestato l’intenzione di recuperare l’immobile, soggetto al parere della soprintendenza, prevedendo di ospitare nuove funzioni didattiche, a conferma della sua destinazione storica, ma organizzate in base alle esigenze attuali, secondo il principio dell’economicità. Dalle analisi urbane è emerso che il quartiere dispone di servizi quali il museo San Domenico, la casa di riposo e il parco Franco Agosto, ma che al contempo la sua posizione marginale e la struttura della viabilità lo rendono un punto di passaggio automobilistico tra la periferia e il centro storico. Per la formulazione di un programma funzionale si è condotta un’indagine sia sugli attuali servizi didattici che gli indirizzi di sviluppo sociale offerti dall’amministrazione, ha fatto emergere una carenza degli spazi verdi all’interno delle scuole e la presenza di un programma di sviluppo degli orti urbani nelle aree di proprietà comunali. Al fine di rispondere alle esigenze della pubblica amministrazione si è deciso di formulare una proposta di intervento su due livelli. Il primo mediante una ridefinizione fisica del rapporto tra l’edificio, il quartiere e il sistema della mobilità. Il secondo attraverso una proposta funzionale che potesse coinvolgere non solo gli studenti ma tutta la cittadinanza. Per la ridefinizione del rapporto tra l’edificio e il quartiere si è deciso di eliminare l’isolamento dell’edificio imposto dalla recinzione esistente, mediante la 8 realizzazione di nuovi varchi di accesso. Diventa così possibile proporre un nuovo percorso pedonale inserito all’interno dell’area verde dell’edificio. In prossimità dell’accesso su via Val Verde, è stato realizzato un ambiente filtro a relazione tra la città e il verde privato.Per migliorare l’accessibilità, favorire il coinvolgimento del pubblico e promuovere l’interazione con le aree verdi circostanti, si sono definiti dei concetti chiave: chiusura, connessione tra le preesistenze, varco, permeabilità visiva, organicità. La tensostruttura, caratteristica per sua flessibilità, leggerezza e trasparenza, è stato l’elemento scelto per rispondere alle esigenze, permettendo al contempo di distinguere l’intervento dalle preesistenze. Il nuovo programma funzionale suddivide l’edificio in tre zone autonome, così da affiancare alla didattica, una zona pubblica per offrire uno spazio a disposizione della comunità e una commerciale per garantire una quota di risorse finanziarie alla gestione dell’immobile. Nello specifico, la didattica è stata specializzata per l‘insegnamento dell’orticultura, al fine di promuovere l’educazione della sostenibilità ambientale, la valorizzazione degli spazi verdi e la promozione dei prodotti del territorio. L’ispirazione scaturisce dal primo orto didattico nato in America a metà degli anni ‘90 ad opera dello chef Alice Waters, precursore degli attuali sviluppi didattici e sociali all’interno delle scuole. Il recupero di alcune funzioni originali ha favorito la tripartizione dell’edificio, inoltre la disponibilità di più accessi esistenti ha garantito la possibilità di rendere autonoma le tre zone. Le aule sono state collegate direttamente con l’esterno ed il problema del dislivello con il giardino, è stato risolto realizzando un porticato coperto, che dilata lo spazio didattico sull’esterno. Il solarium, nonostante fosse abbandonato da anni, grazie alla sua posizione privilegiata per l’osservazione del parco e della città è stato recuperando inserendolo come nuovo punto di sosta nel sistema dei percorsi pubblici. Per questo è stato necessario progettare un corpo scale esterno per rendere accessibile ed autonomo l’ambiente. L’ultimo aspetto affrontato è l’intervento di retrofit energetico, pensato in varie fasi per essere il meno invasivo possibile sull’immobile, prevede l’installazione di un sistema di ventilazione meccanica, un isolamento termico interno di 10cm in lana di roccia montata 9 meccanicamente e la sostituzione di tutti gli infissi non originali con soluzioni più performanti. Per raggiungere la classe A è stato necessario intervenire anche sugli impianti, introducendo un sistema autonomo per la zona commerciale e la sostituzione di tutti i terminali radianti. Considerando l’elevato fabbisogno di energia primaria si è integrata una parte questa mediante l’utilizzo di fonti rinnovabili quali fotovoltaico e solare termico. patrimonio storico, adattandolo alle nuove necessità e dimostrando come sia possibile la trasformazione di un edificio fortemente energivoro in una con ridotto fabbisogno energetico senza stravolgere la struttura e aggiungendo qualità e valore.
Resumo:
Ci si propone di ottimizzare un piccolo motore bicilindrico per uso aeronautico e di trovare una soluzione adeguata per equilibrare il motore stesso. Il propulsore è un motore bicilindrico quattro tempi 500 cc, di derivazione motociclistica, convertito al campo aeronautico. L’installazione del motore sarà nel futuro rivolta agli aeromobili ultraleggeri. Visti i pesi massimi al decollo imposti dalle regolamentazione, dobbiamo far si che il motore sia il più leggero possibile. Lo studio in questione si suddivide in due parti fondamentali: la valutazione di quale sia la soluzione migliore per costruire un motore bicilindrico, con cilindri in linea o in tandem, e la riprogettazione dei cilindri, della testata, dell’albero motore e del sistema di equilibratura utilizzando come software di disegno SolidWorks. Lo studio è nato dalla volontà di progettare un piccolo motore in grado di essere concorrenziale in termini di affidabilità e di prestazioni con i maggiori produttori di motori per ultraleggeri, l’azienda austriaca Rotax che detiene di monopolio, Jabiru, HKS ed altre marche meno importanti.
Resumo:
Il mio progetto di ricerca è nato da una riflessione concernente una domanda fondamentale che si pongono gli studiosi della comunicazione digitale: le attuali tecnologie mediali che hanno creato nuovi modelli comunicativi e inaugurato inedite modalità di interrelazione sociale conducono a un dualismo digitale o a una realtà aumentata? Si è cercato di dare una risposta a questo interrogativo attraverso un’indagine compiuta su un social network, Facebook, che è la piattaforma digitale più diffusa nel mondo. L’analisi su Facebook, è stata preceduta da una riflessione sui concetti dello spazio e del tempo elaborati dalla letteratura filosofica e sociologica. Tale riflessione è stata propedeutica all’analisi volta a cogliere l’impatto che hanno avuto sulla relazionalità intersoggettiva e sulle dinamiche di realizzazione del sé l’interazione semantica nello spazio delimitato della piazza tradizionale, la molteplicità e la potenza seduttiva delle offerte comunicative dei media elettronici nella estensione della piazza massmediale e soprattutto la nascita e l’affermazione del cyberspazio come luogo della comunicazione nella piazza digitale. Se la peculiarità della piazza tradizionale è nel farsi dei rapporti face to face e quella della piazza massmediale nella funzione rilevante della fonte rispetto al destinatario, la caratteristica della piazza digitale consiste nella creazione autonoma di un orizzonte inclusivo che comprende ogni soggetto che si collega con la rete il quale, all’interno del network, riveste il doppio ruolo di consumatore e di produttore di messaggi. Con l’avvento dell’online nella prassi della relazionalità sociale si producono e si attuano due piani di interazioni comunicative, uno relativo all’online e l’altro relativo all’offline. L’ipotesi di lavoro che è stata guida della mia ricerca è che la pervasività dell’online conduca all’integrazione dei due segmenti comunicativi: l’esperienza della comunicazione digitale si inserisce nella prassi sociale quotidiana arricchendo i rapporti semantici propri della relazione face to face e influenzandoli profondamente.
Resumo:
Nell’ambito della patologia gastroenterica del suino sono comprese alcune malattie sostenute da batteri spirillari gram negativi, di cui sono disponibili numerose trattazioni riguardanti, soprattutto, l'aspetto epidemiologico e patogenetico. Per alcuni di questi agenti microbici, e per le relative manifestazioni patologiche, poco si conosce nel cinghiale selvatico, animale correlato filogeneticamente al suino domestico, ma compreso in un’ecologia completamente differente. Da queste premesse è nato un approccio di ricerca e studio del comportamento di questi microrganismi in una metapopolazione di cinghiali, abbattuti durante il piano di controllo della popolazione densità-dipendente nel Parco dei Gessi e Calanchi dell’Abbadessa (BO), cercando di rapportare le conoscenze riportate in letteratura sul suino domestico con quanto è scaturito dalle indagini condotte sul cinghiale selvatico. In particolare è stata indagata con metodica immunoistochimica la presenza di Lawsonia intracellularis, patogeno del suino responsabile di Enterite Proliferativa (EP), in secondo luogo sono state condotte indagini batteriologiche e istologiche da stomaco e intestino, finalizzate all’isolamento di microrganismi spirillari dei generi Campylobacter e Helicobacter, da correlare all’eventuale presenza di lesioni infiammatorie e ulcerative gastriche o enteriche valutate secondo sistemi a punteggio ottenuti dalla bibliografia o realizzati in base alla tipologia di infiltrato cellulare e alla sua localizzazione. In ultimo, a fini comparativi con uno studio condotto nel 2002-2004 nello steso Parco Regionale, sono stati monitorati i livelli di antibioticoresistenza di indicatori fecali usando metodiche internazionali standardizzate (Escherichia coli e Enterococcus faecium.) nonché su un numero significativo di isolati di Campylobacter lanienae, per ottenere indicazioni preliminari sull’andamento nei 10 anni trascorsi dello stato di inquinamento da farmaco del Parco stesso. I risultati ottenuti permettono di ampliare le conoscenze sulla flora enterica del cinghiale selvatico e pongono questioni di sicurezza pubblica sulla gestione dei mammiferi selvatici.
Resumo:
L’area posta a monte della strada provinciale Diga Salto – Bivio Rocca Vittiana del comune di Varco Sabino (RI), è stata risanata dopo che l’Amministrazione Provinciale di Rieti ha indetto un appalto concorso esteso a tutto il territorio nazionale nel 1990. A seguito degli interventi di bonifica e consolidamento della zona suddetta, nonché di protezione e presidio del sottostante tratto di S.P. (Figura 50) con le relative proposte di manutenzione ad oggi non pervenute, si è voluto intraprendere questo studio, mostrando le soluzioni adottate in passato e confrontandole con lo stato dei luoghi al 2013. Tutto ciò è nato dalla consapevolezza e conoscenza del territorio reatino e dalla sua propensione al dissesto, che già dall’età romana e dalla metà del ‘900, ha subito profondi cambiamenti a seguito di considerevoli opere di bonifica e sistemazioni territoriali come la realizzazione dei bacini artificiali del Salto e del Turano per rendere più agevole l’insediamento e la colonizzazione dei terreni della Piana di Rieti, anticamente occupata dalle acque del Lacus Velinus. Proprio dove fu eretta la diga del Salto sotto Rocca Vittiana di Varco Sabino, corre la strada provinciale e quel Suo sciagurato tratto di 500 m bersaglio di massi in caduta libera dal monte sovrastante. Le frane per crollo appaiono tra i dissesti maggiormente pericolosi e frequenti e, nel contempo, i meno considerati negli studi geologici. Nella Provincia di Rieti sono ricorrenti i fenomeni di questo tipo di frana...
Resumo:
Il presente progetto di ricerca, nato inizialmente con l’obbiettivo d’individuare in che modo e in che misura, i testi teatrali del drammaturgo e comico dell’Arte Giovan Battista Andreini, detto Lelio, figlio d’Isabella e Francesco, anche loro attori e letterati d’alto livello, risentirono dell’influenza del mondo dei coevi teatri in musica, dall’intermedio al balletto, si è progressivamente evoluto, divenendo, ben presto, uno studio sulle modalità compositive sperimentali dell’Andreini, dove, in verità, la dimensione del sonoro e la manipolazione dell’elemento musicale, non furono altro che uno dei vari aspetti di suddetta poetica dell’innovazione. Analizzando dunque, minuziosamente, tutte le pièce andreiniane e contestualizzandole, di volta in volta, nel composito panorama sociale, politico e culturale, della prima metà del XVII secolo, in Italia come in Francia, giacché egli lavorò in entrambi gli stati con una certa regolarità - per questo motivo le ricerche sul campo si sono equamente ripartite tra i due paesi - si è giunti a ricostruire, nel dettaglio, quel tessuto, variegato e multiforme, di legami ed influenze, caratterizzato dalla perpetua pulsione alla sperimentazione, esistente tra l’universo performativo barocco e quello che può considerarsi uno dei più alti esponenti della commedia dell’Arte italiana dell’epoca, ridisegnando così i confini di una carriera interamente votata al Teatro e durata più di mezzo secolo.
Resumo:
Una delle realtà economiche più importanti della Sardegna è la produzione di Pecorino Romano DOP. Il contesto nel quale è nato e si è sviluppato ingloba molte delle precondizioni che favoriscono la nascita di un distretto. Il principale obiettivo di questo studio è verificare se il comparto lattiero caseario della Sardegna, focalizzato nella produzione di Pecorino Romano DOP, può creare un effetto distretto. Ciò potrebbe suggerire l'esistenza dello stesso distretto anche se atipico. Per verificare questa ipotesi, in primo luogo è stata esaminata l'efficienza produttiva delle imprese trasformatrici di Pecorino Romano utilizzando il metodo della Frontiera stocastica di produzione. Successivamente sono state cercate le cause delle differenze. Lo studio mostra che i livelli di efficienza osservati sono quasi interamente attribuibili agli input di produzione utilizzati, in particolare al latte. Risulta chiaro che il sistema delle cooperative funziona e che tali aziende ottengono sistematicamente margini di efficienza migliori rispetto alle non cooperative. Le variabili analizzate non permettono di concludere che esiste un "effetto distretto".
Resumo:
La presente ricerca si fonda su un’attenta ed approfondita analisi della normativa vigente in Italia in materia di procreazione medicalmente assistita (P.M.A.), con particolare riferimento al divieto assoluto di P.M.A. eterologa, di cui all’art. 4, comma 3, L. 19 febbraio 2004, n. 40, consentita invece – sia pure con la previsione di limitazioni differenti – nella quasi totalità dei paesi europei. Dopo aver esaminato la “questione etica” del ricorso alle tecniche di fecondazione assistita e le normative vigenti in Europa in materia di P.M.A. eterologa, il presente lavoro analizza i profili civilistici della L. n. 40/2004 ed i conseguenti dubbi interpretativi che la normativa italiana pone in materia di fecondazione eterologa, con specifico riguardo al consenso prestato dai coniugi o conviventi, al divieto di disconoscimento di paternità e di anonimato della madre ed, infine, al diritto del nato da fecondazione eterologa di conoscere le proprie origini biologiche. Ne consegue che, in una materia che coinvolge la sfera più intima e personale della vita privata e familiare, quale quella della P.M.A., il legislatore avrebbe dovuto intervenire con misura, individuando soluzioni ragionevoli ed equilibrate nel rispetto della pluralità di etiche contrapposte ed interessi in conflitto. Attraverso una capillare analisi della recente giurisprudenza nazionale ed europea, la presente ricerca mira, dunque, a valutare possibili prospettive di superamento del divieto assoluto di P.M.A. eterologa previsto dalla L. n. 40/2004. I risultati a cui la presente indagine ha consentito di pervenire dimostrano quanto sia opportuna l’adozione in Italia di un “modello liberale”, in cui sia lecita anche la fecondazione eterologa (con la previsione di limiti e condizioni volti a tutelare primariamente il superiore interesse del nascituro), onde consentire l’adeguamento al nuovo concetto di “genitorialità” ormai prevalente e l’arresto del cd. “turismo procreativo”.