989 resultados para giochi favorevoli e non favorevoli criterio di Kelly
Resumo:
Viviamo in un epoca di cambiamenti. Continuamente, giorno dopo giorno, il vecchio scompare per fare spazio al nuovo. La tecnologia permea sempre più in ogni aspetto della vita, conquistando le nostre abitudini, cambiando il nostro modo di vedere il mondo, e, in maniera inevitabile, il nostro modo di agire. L’essere umano ha da sempre cercato di concepire cose che ancora non ci sono, per cambiare la realtà e modellarla a suo piacimento. Si parte, quindi, da qualcosa che fin dalla nascita è dentro ognuno di noi, un desiderio che arde nell'animo umano, che si alimenta grazie al soffio dell’immaginazione e che non c’è modo di spegnere. L’innovazione porta novità. Resistere al cambiamento non è sempre facile, e se si cerca di ostacolarlo esso ti travolgerà. “Affrontare il cambiamento è come scalare una colata di fango giù per una collina” - esordisce in “The Innovator Dilemma”, Clayton M. Christensen - “Bisogna affrontare qualsiasi cosa per rimanere su di essa, e non appena ci si ferma per prendere fiato si viene seppelliti”. Si intuisce come il cambiamento tecnologico non solo sia di fondamentale evidenza nella vita di ognuno, ma come esso abbia cambiato e stia cambiando il modo di fare business. In questo umile lavoro si è voluto analizzare come certi tipi di innovazione abbiano il potere di cambiare tutto un sistema di riferimento sul quale prima l’impresa faceva affidamento. Sono le Disruptive Innovation – le innovazioni dirompenti – quelle innovazioni che ribaltano un modello di business, il modo di vedere un prodotto, la logica dietro a certe operations aziendali, che seppur sembrassero solide, si sgretolano scontrandosi con innovazioni così forti. Vi è poi una domanda critica a cui si è cercato di rispondere. Si può fare Disruptive Marketing? Alcuni esempi virtuosi ci mostrano come si possa attuare una strategia di questo genere, e come si possa “comprendere, creare, comunicare e distribuire valore” in modo innovativo.
Resumo:
Il lavoro sviluppato intende affrontare in modo integrato la problematica ambientale relativamente allo sviluppo della flotta di veicoli di un grande operatore del trasporto pubblico. In prima istanza il lavoro si è focalizzato sull’analisi approfondita della flotta esistente, ed accanto ai dati tradizionali è stata sviluppata anche un’analisi dei costi totali comprensive anche delle esternalità calcolate come da direttiva 2009/33/CE. Sono state sviluppate numerose elaborazioni di uso aziendale relativamente alla metodologia del costo del ciclo di vita, LCC, che è in uso presso TPER S.p.A. sin dal 2001. Successivamente sono stati sviluppati gli scenari evolutivi della flotta automobilistica individuando per il confronto finale tre scenari distinti in ottica 2020: - Il primo scenario inerziale senza nessuna modifica della flotta consolidato al 31.12.2015, tale scenario è definito dai veicoli presenti, dai costi di gestione della manutenzione, dai costi di carburante e dai costi esterni come suddetto; - Il secondo con orizzonte 2016 prevede l’inserimento in servizio dei n. 49 filosnodati Crealis e viene consolidato al 31.12.2016; - Il terzo scenario è quello obiettivo e considera nel 2020 l’entrata in parco via via degli acquisti che TPER S.p.A. ha già programmato per il 2017, 2018 e compresi i n.55 snodati con alimentazione elettrica del progetto PIMBO. Le comparazioni di questi scenari permettono in modo molto realistico di individuare gli effetti su una flotta reale delle politiche di investimento reali e non simulate e di poter quantificare quindi l’andamento dei costi esterni in relazione alla modifica della flotta di TPER S.p.A.
Resumo:
La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.
Resumo:
Il presente lavoro di tesi nasce dall’esigenza di comprendere e studiare come viene affrontata, e gestita, l’emergenza in mare derivante dallo sversamento accidentale, o volontario, di idrocarburi; il sistema di risposta nazionale a questo genere di emergenze si sviluppa su più livelli e per ogni livello sono individuati gli organi responsabili e i relativi compiti. Le azioni da intraprendere sono specificate negli elaborati di pianificazione redatti dall’Agenzia Nazionale di Protezione Civile, dal Ministero dell’Ambiente e della Tutela del territorio e del Mare, dalle Capitanerie di Porto Locali, dalle Province e dai Comuni; i primi 3 si occupano dell’emergenza in mare, mentre le Province e i Comuni si occupano degli interventi da attuare sulla costa in seguito allo spiaggiamento degli idrocarburi. La regione Emilia-Romagna, in particolare, non possiede elaborati di pianificazione per la gestione del rischio di inquinamento costiero; per questo motivo, sulla base delle indicazioni riportate negli elaborati di pianificazione nazionale e consultando elaborati già esistenti di altre regioni adriatiche, è stata redatta una proposta di linee guida per la redazione di un Piano Comunale d’Emergenza che preveda il rischio di inquinamento costiero. Per poter prevedere quale tecnica di bonifica sarà possibile applicare ad uno sversamento di idrocarburi, esistono software che modellano i processi chimico-fisici che la sostanza subisce con il passare del tempo. Ogni tecnica ha dei limiti sia di efficienza che di applicabilità; essi sono principalmente dovuti alle condizioni meteomarine e ai processi che la sostanza subisce nel tempo una volta sversata; la conoscenza di questi limiti permette di effettuare, nella maggior parte delle situazioni, la scelta della tecnica di intervento più appropriata ed efficiente a seconda della situazione. La tesi è strutturata come segue. Nel Capitolo 1 sono descritte le problematiche e le cause relative agli incidenti in mare che comportano il rilascio di idrocarburi in esso e gli effetti che questi hanno sull’ambiente e i cambiamenti che la sostanza subisce una volta sversata in mare. Nel Capitolo 2 sono descritte le strategie di intervento per il recupero degli idrocarburi sversati in mare e le tecniche di bonifica attuabili sulla costa impattata dallo sversamento. Nel Capitolo 3 è illustrato il sistema di risposta nazionale all’emergenza derivante dallo sversamento in mare di idrocarburi; ad ogni livello è dedicato un paragrafo del Capitolo 3. Inoltre sono presentate delle linee guida per la redazione di un Piano Comunale d’Emergenza che preveda il Rischio di Inquinamento Costiero da idrocarburi e altre sostanza nocive. Nel Capitolo 4 è illustrato il software ADIOS 2 che permette di modellare i processi chimico-fisici che la sostanza subisce quando viene sversata in mare e di simulare l’utilizzo di alcune strategie di intervento. Nel Capitolo 5 sono riportate le considerazioni conclusive e i risultati ottenuti.
Resumo:
L'Italia è spesso sede di eventi d'intensa precipitazione, frequentemente associati ad alluvioni con conseguente perdita di vite umane e gravi danni economici. È quindi di fondamentale importanza poter prevedere questi eventi con un adeguato anticipo. Allo stato attuale, i modelli meteorologici non permettono sempre di raggiungere tale obbiettivo e, di conseguenza, è in atto un'intensa attività di ricerca al fine di di renderne più accurata la previsione, sia attraverso il miglioramento dei modelli stessi, sia sviluppando l'assimilazione dati, la quale riduce l'incertezza della condizione iniziale da cui parte la previsione. All'interno di questo contesto, la tesi si prefigge l'obiettivo di studiare gli effetti dell'assimilazione di dati di precipitazione, effettuata mediante uno schema di nudging, nel modello non idrostatico MOLOCH. Al fine di ottimizzare lo schema e di valutarne l'impatto, sono stati simulati tutti gli eventi di maltempo di ottobre e novembre del 2014 che hanno interessato la Liguria, area frequentemente soggetta ad alluvioni. Dalla sistematica verifica dei risultati, effettuata sia qualitativamente che mediante numerosi metodi statistici (tra cui la tecnica SAL basata sull'individuazione dei nuclei di precipitazione), si riscontra un generale miglioramento della previsione della precipitazione anche se limitato alle prime ore dopo la fine del periodo di assimilazione. L'impatto dello schema di nudging varia a seconda dell'evento e, in particolare, si osserva una certa correlazione tra il miglioramento ottenuto e la tipologia di evento, come descritto dalla teoria dell'equilibrio convettivo e come riportato in alcuni studi analoghi recentemente comparsi in letteratura. La ricaduta del miglioramento della previsione meteorologica è stata valutata anche in termini di impatti al suolo accoppiando il modello meteorologico con il modello idrologico utilizzato dal Centro Funzionale della Regione Liguria, con risultati abbastanza positivi.
Resumo:
Studio della crescita della scarica elettrica nei gas a bassa pressione con trattazioni teoriche, risultati sperimentali e rimandi ai principali studi sull'argomento. Indice: 1 Introduzione 2 Breakdown nei Gas a Bassa Pressione 2.1 Criterio di Townsend e Legge di Paschen 2.2 Tensione di Breakdown in Campi Uniformi 2.3 Scostamenti dalla Legge di Paschen 2.4 Breakdown in Campi Non Uniformi 2.5 Time Lags per il Breakdown 2.6 Breakdown nel Vuoto 2.7 Scariche Intermittenti post-Breakdown 3 Breakdown nei Contatori Geiger 3.1 Contatori Geiger 3.2 Conteggio Proporzionale 3.3 Conteggio Non-Proporzionale 3.4 Propagazione della Scarica A Sviluppi Successivi
Resumo:
Lo scopo di questa tesi si articola in tre punti. In primo luogo, ci proponiamo di definire, sia in ambito analitico che in un contesto più algebrico e geometrico, la trasformata di Radon, di discutere la possibilità di un'eventuale generalizzazione a spazi non euclidei, e di presentare le sue proprietà più caratteristiche. In secondo luogo vogliamo dimostrare, sfruttando un collegamento di questa con la trasformata di Fourier, che la trasformata di Radon è un'applicazione iniettiva tra spazi funzionali e che è dunque invertibile, per poi descrivere uno dei possibili metodi formali di inversione. Accenneremo anche alle problematiche che insorgono nell'utilizzare l'antitrasformata di Radon in situazioni reali, e alle relative soluzioni. Infine, concluderemo la trattazione con una breve ma, ottimisticamente, delucidatrice, introduzione ad alcuni esempi di applicazione della trasformata di Radon a vari ambiti fisici e matematici.
Resumo:
Questo lavoro di tesi si inserisce in un progetto di ricerca internazionale denominato “Venice Time Machine” dove collaborano fianco a fianco l’Ecole Polytechnique Fédérale de Lausanne e l’Università Cà Foscari di Venezia. Grazie al coinvolgimento dell’Archivio di Stato di Venezia, decine di chilometri di documenti verranno digitalizzati e indicizzati, al fine di creare un database open access da utilizzare per la ricerca e l’istruzione. Molti di questi documenti tuttavia sono particolarmente fragili oppure, come nel caso di diversi testamenti, non sono mai stati aperti, per cui le tecniche tradizionali di digitalizzazione non sono applicabili. Di qui deriva l’interesse per sperimentare nuove tecniche non invasive al fine di digitalizzare e quindi rendere fruibili al pubblico anche questi documenti altrimenti inaccessibili. Lo scopo dell’analisi tomografica è quello di creare un modello 3D del documento, su cui effettuare successive elaborazioni al fine di ottenere una separazione virtuale delle pagine e quindi permetterne la lettura anche se il manoscritto è chiuso e non può essere aperto. In particolare in questo lavoro di tesi sono stati analizzati due testamenti: un testamento del 1679, usato come campione di prova per verificare la migliore sorgente di raggi X ai fini della ricostruzione tomografica e anche per valutare l’efficacia della tecnica, e il testamento Alchier-Spiera (dai nomi dei testatori), datato 1634, di maggiore interesse poiché ancora chiuso. I risultati ottenuti sono molto soddisfacenti, poiché elaborando le ricostruzioni tomografiche è possibile la lettura virtuale sia di parole che di intere frasi. Questo risultato porta nuova linfa al progetto che, di base, si pone l’obiettivo di convertire in formato digitale decine di km di testi conservati in Archivio, ma che ha trovato, in questo tipo di testamenti chiusi, un ostacolo molto difficile da superare.
Resumo:
Nella tesi inizialmente ho introdotto qualche nozione principale della teoria dei giochi; in seguito ho analizzato e approfondito l'equilibrio di Nash attraverso degli esempi come il dilemma del prigioniero. Ho studiato qualche tipologia di gioco come l'induzione a ritroso e infine nell'ultimo capitolo ho inserito tre esempi che possono essere studiati e affrontati con l'equilibrio di Nash.
Resumo:
In questo elaborato è stato discusso il tema della depurazione delle acque reflue, in particolar modo il sistema SBR. L'SBR (Sequencing Batch Reactors) è un sistema di impianti di depurazione composto da una vasca di raccolta del liquame e una o più vasche in parallelo, i reattori, che consistono nel vero e proprio cure dell'impianto. Di fatto le fasi del processo depurativo restano immutate rispetto ad un impianto tradizionale, ma l'SBR introduce come nuovo parametro dimensionale il tempo. infatti, tutti i trattamenti depurativi sono svolti sequenzialmente nel reattore. Un programma gestisce le varie fasi del trattamento esclusivamente sulla base della loro durata (stabilita relativamente alla natura del refluo e quindi ai trattamenti da svolgere in maniera più o meno intensiva). Questa caratteristica rende l'intero impianto molto versatile nel caso di variazioni dei dati in ingresso. Per questo motivo gli impianti SBR sono ottimi per la piccola media impresa, in quanto sono facilmente adattabili alle variazioni stagionali di produzione. Sono inoltre possibili realizzazioni di impianti per il trattamento di ingenti portate, o elevate concentrazioni, ponendo più reattori in parallelo alimentati dalle stessa vasca di accumulo. In questo modo è possibile svolgere un maggiore numero di cicli depurativi al giorno e quindi rispettare i valori normativi in uscita dell'impianto. In conclusione questa tipologia d'impianto presenta notevoli vantaggi fra i quali anche quello di avere bassi costi operativi. La motivazione di ciò sta nel fatto che l'impianto lavora solo se ha effettivamente una portata, per cui se non vi è presenza di refluo il reattore non lavora e quindi non comporta costi.
Resumo:
Negli ultimi anni, lo sviluppo tecnologico e il progresso nel campo della nanotecnologia hanno portato ad un radicale cambiamento per i prodotti ceramici: oltre all’innovazione di formati e spessori, si è cominciato ad utilizzare trattamenti funzionali capaci di trasformare sistemi di rivestimento convenzionali in rivestimenti “intelligenti”. Questo ha comportato l’utilizzo di questi materiali, tradizionali ma “innovati” nelle loro prestazioni, in contesti in precedenza non considerati. L’efficacia di questi rivestimenti al momento della loro applicazione non rappresenta più una novità, mentre a livello normativo e procedurale vi è una grossa lacuna per quanto riguarda la valutazione della durabilità dei rivestimenti e la capacità di mantenimento nel tempo delle prestazioni iniziali. Per questo motivo, il presente lavoro è stato orientato verso uno studio riguardante la durabilità dei trattamenti di completamento applicati a superfici ceramiche, in considerazione della crescente importanza che essa ha assunto negli ultimi anni per la valutazione dei costi relativi al ciclo di vita. Quando si parla di durabilità si pensa all’essere durevole nel tempo e quest'ultimo è influenzato da una molteplicità di fattori che possono portare ad una condizione di degrado, legati sia all’ambiente in cui il materiale vive, sia all’invecchiamento del materiale stesso, rendendo la stima della durata un’operazione estremamente complessa. Il percorso di ricerca, partendo da una valutazione delle diverse metodologie normate e procedure presenti in letteratura, si è orientato verso l’analisi dei metodi rivolti alla valutazione della durabilità dei trattamenti superficiali, così da poter condurre un confronto sperimentale, tra i risultati conseguiti con l’applicazione delle metodologie proposte dalle norme ed il comportamento effettivo in servizio. Nella ricerca è stato importante definire i fattori che determinano i meccanismi di degrado e la modalità con cui applicarli in laboratorio.
Resumo:
I fenomeni di contaminazione antropica da mercurio sono sempre più diffusi e preoccupanti, tanto da spingere all’ attivazione di politiche nazionali ed internazionali atte a ridurre o almeno “contenere” i rischi legati a questo metallo tossico. Con quest’obiettivo è prioritaria la necessità di determinare la concentrazione del metallo in maniera veloce, economica ed efficiente. Il seguente report intende fornire informazioni utili nell’utilizzo dello spettrofotometro DMA-80 nell’analisi di Hg in varie matrici ambientali. Lo strumento è stato acquistato dall’IAMC-CNR di Capo Granitola per rispondere alle esigenze progettuali del progetto “Dinamica dei processi di evasione e deposizione del mercurio nell’area industrializzata della Rada di Augusta e definizioni delle mappe di rischio sanitario per le popolazioni residenti” (prot.n°0000466 18/2/2011) finanziato dall’Assessorato alla Salute della Regione Sicilia con l’obbiettivo di verificare il potenziale impatto del mercurio, derivato dalle emissioni dei reflui non trattati dell’impianto di cloro-soda SYNDIAL Priolo-Gargallo sulle popolazioni residenti nell’aria fortemente industrializzata di Augusta-Melilli (Siracusa).
Resumo:
Il contenuto di questo volume non vuole rappresentare un testo didattico per lo studio in generale della vulcanologia in quanto in esso si tratta unicamente quell’a-spetto della disciplina che riguarda il vulcanismo esplosivo. In tal senso l’autore ritiene che questo testo possa essere utile per gli studenti di Scienze Geologiche che, vivendo nelle aree vulcaniche italiane di età quaternaria ed anche attive, possano, da laureati, svolgere attività professionali mirate alla individuazione e definizione di Pericolosità, Vulnerabilità e Rischio Vulcanico. Trattare gli argomenti che seguono non è stato facile e forse si poteva, in alcuni casi, renderli più semplici, ma talvolta la semplicità non sempre è sinonimo di precisione; inoltre, per descrivere certi aspetti non quantitativi si è costretti ad utilizzare un linguaggio quanto più possibile “ad hoc”. L’autore ha svolto la propria attività di ricerca in aree vulcaniche, sia in Italia che all’estero. Le ricerche in Italia sono state da sempre concentrate nelle aree di vulcanismo attivo in cui l’attività del vulcanologo è finalizzata fondamentalmente alla definizione della Pericolosità Vulcanica supporto indispensabile per la definizione dell’aree a Rischio Vulcanico, intendendo per Rischio il prodotto della Pericolosità per il Danno in termini, questo, di numero di vite umane ovvero di valore monetario dei beni a rischio nell’area vulcanica attiva. Le ricerche svolte dall’autore in Africa Orientale (Etiopia e Somalia) e nello Yemen hanno contribuito ad assimilare i concetti di vulcanologia regionale, rappresentata dall’ampia diffusione del vulcanismo di plateau, variabile per spessore dai 1500 ai 3000 metri, fra i quali si inseriscono, nella depressione dell’Afar, catene vulcaniche inquadrabili, dal punto di vista geodinamico, come “oceaniche” alcune delle quali attive e che si sviluppano per decine/centinaia di chilometri. Nelle aree vulcaniche italiane le difficoltà che sorgono durante il rilevamento risiedono nella scarsa continuità di affioramenti, talvolta incompleti per la descrizione delle variazioni di facies piroclastiche, non disgiunta dalla fitta vegetazione ovvero ur banizzazione specialmente nelle aree di vulcanismo attivo. Il rilevamento vulcanologico richiede competenze e l’adozione di scale adatte a poter cartografare le variazioni di facies piroclastiche che, a differenza dalle assise sedimentarie, in un’area vulcanica possono essere diffuse arealmente soltanto per alcune centinaia di metri. I metodi di studio delle rocce piroclastiche sono del tutto simili a quelli che si usano per le rocce clastiche, cioè dall’analisi delle strutture e delle tessiture alla litologica fino a quella meccanica; su questi clasti inoltre le determinazioni della densità, della mineralogia e della geochimica (Elementi in tracce e Terre Rare), ottenute sulla frazione vetrosa, rappresentano parametri talvolta identificativi di un’area vulcanica sorgente. Non esistono testi nei quali venga descritto come si debba operare nelle aree vulcaniche per le quali l’unica certezza unificante è rappresentata dall’evidenza che, nelle sequenze stratigrafiche, il termine al top rappresenta quello più relativamente recente mentre quello alla base indica il termine relativo più vecchio. Quanto viene riportato in questo testo nasce dall’esperienza che è stata acquisita nel tempo attraverso una costante azione di rilevamento che rappresenta l’uni- ca sorgente di informazione che un vulcanologo deve ricavare attraverso un attento esame dei depositi vulcanici (dalla litologia alla mineralogia, alla tessitura, etc.) la cui distribuzione, talvolta, può assumere un carattere interegionale in Italia nell’ambito dell’Olocene. Soltanto l’esperienza acquisita con il rilevamento produce, in un’area di vulcanismo attivo, risultati positivi per la definizione della Pericolosità, sapendo però che le aree vulcaniche italiane presentano caratteristiche ampiamente differenti e di conseguenza il modo di operare non può essere sempre lo stesso. Un esempio? Immaginate di eseguire un rilevamento vulcanico prima al Somma-Vesuvio e poi nei Campi Flegrei: sono mondi completamente differenti. L’autore desidera ribadire che questo testo si basa sulla esperienza acquisita sia come geologo sia come docente di Vulcanologia; pertanto il libro potrà forse risultare più o meno bilanciato, in forza dell’argomento trattato, in quanto durante l’attività di ricerca l’autore, come tutti, ha affrontato alcuni argomenti più di altri. Questo approccio può essere considerato valido per chiunque voglia scrivere un libro in maniera autonoma e originale, non limitandosi, come molte volte avviene, a tradurre in italiano un libro su tematiche analoghe diffuso, ad esempio, nel mondo anglosassone.Diversamente, si sarebbe potuto concepire un libro come un collage di capitoli scritti da vari autori, che magari avevano esperienza più specifica nei singoli argomenti, ma in tal senso si sarebbe snaturato lo spirito con cui si è impostato il progetto. L’autore, infine, ha fatto ricorso al contributo di altri autorevoli colleghi solo per temi importantissimi, ma in qualche modo complementari rispetto al corpus costitutivo del Vulcanismo Esplosivo.
Resumo:
Presentata una definizione del termine e un excursus storico delle condotte di attuazione della tortura, citando noti eventi individuali (rapimento Dozier) o di massa (G8 di Genova), il presente lavoro discuterà della carenza normativa di tale reato nel nostro Paese, per concludere con alcuni elementi ravvisabili nel profiling criminologico del torturatore. After having introduced a definition of the word “torture” and briefly analysed from a historic point of view, this behaviour thanks to well-known events (Dozier kidnapping and G8 summit in Genoa), in this article the author will first discuss the lack of an appropriate legislation on this topic in Italy. Then, she will analyse some aspects of the criminological profile of a torturer.
Resumo:
Lactobacillus sakei è una specie altamente specializzata nella colonizzazione di prodotti a base di carne. Possiede un genoma relativamente ridotto nel quale, ad esempio, mancano le informazioni per la sintesi di 18 aminoacidi su 20, per i quali risulta dunque auxotrofo. La carne è quindi un substrato ottimale poiché tali aminoacidi sono facilmente disponibili. Una delle caratteristiche più interessanti di Lb. sakei, ed il motivo per cui viene largamente impiegato come coltura starter nell’industria dei salumi, è la sua capacità di permanere attivo e dominante per lungo tempo, anche quando le fonti principali di zuccheri sono esaurite. Inoltre tale microorganismo non è in grado di produrre sostanze dannose, come ad esempio le ammine biogene, ma bensì produce sostanze con attività antimicrobica: le batteriocine (sakacina). Questo elaborato ha costituito il primo tassello di un lavoro più ampio di selezione di ceppi di Lb. sakei da destinare all’utilizzo come colture starter. Sono state valutate alcune caratteristiche tecnologiche di ceppi di Lb. sakei, isolati da prodotti ottenuti tramite fermentazioni spontanee, e le loro performance sono state confrontate con ceppi di collezione e con un ceppo utilizzato a livello commerciale. In particolare si sono studiate le cinetiche di fermentazione a temperature diverse, variabili da 5°C a 40°C, e a differenti concentrazione di NaCl, da 0 a 8%. Per quanto riguarda la temperatura, tutti i ceppi sono stati in grado di sviluppare tra 5°C e 35°C, ma nessuno è riuscito a 40°C. I risultati hanno evidenziato una notevole variabilità delle performance fermentative tra 15 e 20°C. Per quanto riguarda la presenza di sale, tutti i ceppi sono cresciuti a tutte le concentrazioni di NaCl, anche a quella più elevata (8%), seppur con cinetiche diverse. Questi diversi pattern fermentativi, associati con altre caratteristiche che verranno valutate in futuro, determineranno i criteri di scelta per nuovi starter.