404 resultados para Euro VI NOx CO2 rapporto di compressione Skyactiv
Resumo:
Studio della trasmissione del moto in teste birotative. Vengono analizzate le caratteristiche delle teste birotative in genere. Vengono imposti gli obiettivi per il progetto di una nuova testa birotativa, che verranno utilizzati per effettuare la scelta di una trasmissione di precisione. E' in seguito riportato un procedimento per la verifica dei servomotori e la definizione del rapporto di trasmissione del riduttore. Vengono infine avviate una fase di studio ed un approccio alla simulazione FEM per il riduttore scelto.
Resumo:
Nell’era dell’informazione in cui viviamo, ogni persona viene sdoppiata in due entità: oltre alla parte reale e materiale vi è un alterego fatto di dati ed informazioni che vive nei database e nei server che compongono il web. Il collegamento tra le due parti è dato dagli account e dalle chiavi di autenticazione, che si presumono essere segrete. Al giorno d’oggi ogni persona possiede almeno un account, sia esso una web mail, un profilo su un social network o l’account di online banking. Quasi la totalità di questi sistemi effettua l’autenticazione dell’utente tramite l’immissione di una password, e la sicurezza di quest’ultima è essenziale per la protezione delle informazioni personali, dei dati bancari e della propria identità. Col passare del tempo le informazioni personali che diamo in custodia al web crescono sempre più velocemente e diventano sempre più personali e delicate, ma purtroppo l’importanza che viene data alla sicurezza informatica non cresce di pari passo sia da parte degli utenti, sia da parte dei fornitori dei servizi web. Questa tesi ha come scopo quello di portare il lettore ad avere più coscienza rispetto alle tematiche della sicurezza informatica e di esporre in modo chiaro e semplice alcune delle problematiche che riguardano la sicurezza dei sistemi di autenticazione.
Resumo:
Progettazione e verifica di riduttore per uso aereonautico da 900HP@5500rpm ordinario con rapporto di riduzione 4.23 a 1.
Resumo:
Questo lavoro ha lo scopo di definire l’influenza del rapporto di aspetto (ovvero il rapporto tra lunghezza del giunto e diametro di accoppiamento) sulla resistenza statica di un adesivo epossidico in temperatura. Sono state eseguite, dunque, prove di accoppiamento e di disaccoppiamento su "pin and collar" fabbricati secondo la norma ISO 10123. Il materiale scelto è l’acciaio con quattro diversi livelli di rapporto di aspetto. La tesi fornisce dettagli sulla procedura sperimentale e sulla metodologia di elaborazione dei risultati, che sono stati analizzati con metodi statistici. Lo studio mira ad evidenziare se il rapporto di aspetto ha un effetto significativo sulla resistenza a taglio dell’adesivo alla temperatura di 80°C e, in caso affermativo, a recuperare la relazione tra il rapporto di aspetto e la forza adesiva.
Resumo:
La fissazione esterna ha subito una forte evoluzione nel corso degli anni, passando dall’essere una tecnica utilizzata esclusivamente nella stabilizzazione delle fratture, fino a diventare una risorsa importante in ortopedia ricostruttiva per il trattamento di molte patologie ossee e dei tessuti molli. Il prototipo di fissatore esterno monolaterale articolato Kore (Citieffe S.r.l.), oggetto di questo studio, consente di effettuare correzione di deformità angolari e piccoli allungamenti su ossa lunghe. Il lavoro sperimentale si è concentrato sul testare le prestazioni meccaniche del dispositivo e della sua componentistica, con l'obiettivo di mettere in evidenza eventuali problemi. I risultati sono stati confrontati con quelli ottenuti in prove realizzate precedentemente in azienda, e con quelli ricavati su dispositivi concorrenti da altri autori. Sono state svolte una prova di compressione assiale statica, una prova a fatica di compressione assiale, una prova a flessione a quattro punti ed una prova di regolazione dinamometrica sul meccanismo di attuazione del dispositivo. E’ stata poi progettata una configurazione per studiare le principali caratteristiche dei morsetti. Nel caso del morsetto a compensazione si è verificata l'effettiva capacità di scorrimento del morsetto, mentre nel morsetto a traliccio, dotato di un meccanismo di snodo, ne viene accertata la tenuta. Al termine dei test, in base ai risultati raccolti dalle prove meccaniche e dalle prove svolte su osso artificiale, sono state fatte valutazioni riguardanti alcune modifiche da apportare al prototipo. Per quanto riguarda il dispositivo dovrà essere ridotta la dimensione del corpo centrale, al fine di avere un dispositivo più duttile, leggero e vicino al corpo. Questa modifica inoltre limiterà l'influenza della flessione delle pins sul comportamento meccanico del fissatore, migliorandone le prestazioni. Relativamente al morsetto a traliccio dovrà essere ridotta la lunghezza dello snodo, per limitare lo sforzo sulla vite di serraggio del meccanismo. Nel morsetto a compensazione dovrà essere modificato il profilo, per garantire un migliore scorrimento.
Resumo:
Conoscere dal punto di vista tecnico-costruttivo una costruzione storica è fondamentale per un’attendibile valutazione della sicurezza strutturale attuale e per la scelta di un eventuale ed efficace intervento di miglioramento. Per le strutture di interesse storico appartenenti al patrimonio culturale, ma anche per gli altri edifici, risulta difficile conoscere le origini del manufatto, le modifiche avvenute nel corso del tempo dovute a fenomeni di danneggiamento derivanti dal peggioramento delle condizioni dei materiali e dall’avvenimento di eventi calamitosi a causa della mancanza di documentazione storica. La mia tesi e’ focalizzata su tecniche di indagine non distruttive in modo da migliorare la conoscenza della struttura per poi intervenire in modo corretto. L’obiettivo del lavoro svolto e’ stato indagare il contributo delle indagini sperimentali alla diagnosi di edifici storici, in particolare elementi strutturali lignei e di muratura applicando indagini sperimentali non distruttive. Ho dapprima descritto lo stato dell’arte delle varie prove effettuate attraverso la lettura e il confronto di diversi articoli tecnico-scientifici riportando gli obiettivi, la strumentazione impiegata e i risultati ottenuti dalle diverse prove. Ho poi effettuato uno studio del materiale legno utilizzato per le costruzioni, riportandone la descrizione dal punto di vista strutturale, le caratteristiche fisiche, chimiche e meccaniche, le diverse classificazioni e le fasi di lavorazione. Quindi ho analizzato alcune delle prove non distruttive necessarie per una diagnosi di elementi lignei. Per ogni prova vengono riportate alcune caratteristiche, il principio di funzionamento e la strumentazione utilizzata con eventuali software annessi. Negli ultimi 3 capitoli si procede con l’applicazione sperimentale delle prove in sito o in laboratorio precedentemente descritte, in diversi casi di studio; in particolare 1) l’applicazione della prova di compressione assiale su alcuni provini ricavati da un elemento strutturale in legno antico per ricavare vari parametri fisici e meccanici; 2) lo studio di una capriata di legno presente in laboratorio, recuperata dopo il sisma dell’Emilia del 2012, iniziando dall’ispezione visuale classificazione a vista degli elementi sulla base di quanto riportato nella normativa per poi analizzare i dati delle varie prove non distruttive eseguite. 3) Infine è applicata la prova termografica ad un edificio di interesse storico, come l’ex Monastero di Santa Marta, situato in via S. Vitale a Bologna per indagare la tipologia strutturale, le tecnologie costruttive impiegate nelle varie epoche di questo complesso.
Resumo:
Le protesi biomimetiche hanno subito negli anni innumerevoli cambiamenti dovuti al miglioramento tecnologico, che ha portato allo sviluppo di nuovi materiali sempre più biomimetici. L’utilizzo di protesi in idrossiapatite personalizzate rappresenta la scelta migliore per gli interventi di cranioplastica ricostruttiva. Ad oggi la produzione di questo dispositivo richiede lunghe fasi di lavorazione. Risulta pertanto di grande interesse trovare soluzioni innovative che permettano l’ottimizzazione dei tempi garantendo al contempo l’efficacia clinica. L’obiettivo di questo elaborato è introdurre l’utilizzo delle microonde per essiccare il semilavorato nelle fasi iniziali di produzione. Bisogna comprendere quali siano i parametri in grado di influenzare le proprietà finali del dispositivo e come modularli per guidare questi attributi verso il punto di ottimo. Si è deciso di utilizzare la tecnica del Design of Experiments a fattoriale completo come metodo per ottimizzare il processo produttivo. I fattori scelti sono stati la potenza del forno a microonde, il peso della cellulosa secca, il range di peso della matrice di cellulosa e la percentuale di essiccamento del semilavorato. Al termine dello studio è stato possibile capire come e quanto questi fattori abbiano influenzato la severità dei difetti, la porosità e le proprietà meccaniche (tensione ultima di compressione e lavoro a rottura) del prodotto finito. Lo studio ha mostrato che per garantire un basso numero di difetti associato ad una porosità in linea con le specifiche di prodotto è indicato impostare la potenza del forno a microonde sul valore di 250W e di utilizzare questo processo nella fase iniziale per essiccare al 20% i semilavorati. La conferma è stata fornita da una sperimentazione eseguita su protesi allineate ad un caso clinico reale utilizzando questo nuovo processo permettendo di ottenere un ottimo risultato in termini di qualità del prodotto finito con una bassa percentuale di scarto per difetti e porosità.
Resumo:
La trasformata di Fourier (FT) è uno strumento molto potente implementato, oggi, in un enorme numero di tecnologie. Il suo primo esempio di applicazione fu proprio il campionamento e la digitalizzazione di segnali analogici. Nel tempo l'utilizzo della FT è stato ampliato a più orizzonti in ambito digitale, basti pensare che il formato di compressione '.jpg' utilizza una FT bidimensionale, mentre uno degli ultimi esempi di applicazione si ha nell'imaging digitale in ambito medico (risonanza magnetica nucleare, tomografia assiale computerizzata TAC ecc...). Nonostante gli utilizzi della FT siano molto diversificati il suo basilare funzionamento non è mai cambiato: essa non fa altro che modificare il dominio di una funzione del tempo (un segnale) in un dominio delle frequenze, permettendo così lo studio della composizione in termini di frequenza, ampiezza e fase del segnale stesso. Parallelamente all'evoluzione in termini di applicazioni si è sviluppato uno studio volto a migliorare e ottimizzare la computazione della stessa, data l'esponenziale crescita del suo utilizzo. In questa trattazione si vuole analizzare uno degli algoritmi di ottimizzazione più celebri e utilizzati in tal senso: la trasformata veloce di Fourier (Fast Fourier Transformation o FFT). Si delineeranno quindi le caratteristiche salienti della FT, e verrà introdotto l'algoritmo di computazione tramite linguaggio C++ dedicando particolare attenzione ai limiti di applicazione di tale algoritmo e a come poter modificare opportunamente la nostra funzione in modo da ricondurci entro i limiti di validità.
Resumo:
Del granulato di ossido di stronzio (anche nella formula carbonato) è stato testato come nuovo possibile materiale di utilizzo per la cattura ad alta temperatura di diossido di carbonio da effluenti gassosi di scarto. Sono stati condotti diversi esperimenti con strumentazioni già preposte, quali test termogravimetrici, microscopia elettronica (SEM) e Xray (XRD). Mentre per la sperimentazione in quantità più rilevanti di materiale è stato costruito un impianto a letto fisso ex novo. Le prove TG hanno evidenziato una capacità media di sorbente parti a circa il 5% in massa di ossido, a temperature tra i 1100°C e i 1200°C, in situazione di regime (dopo numerosi cicli di carb/calc), con una buona conservazione nel tempo delle proprietà adsorbitive, mentre per le prove a letto fisso, si è registrato un calo di valori variabile tra il 3 e il 4%, con un netto miglioramento nel caso di calcinazione in vapore surriscaldato fino al 5%. Il trattamento in vapore ha sortito l’importante effetto di calcinazione del diossido di carbonio dal sorbente, quindi facilmente separabile dal flusso in uscita, misurato tramite cattura in una soluzione di idrossido di bario. Importanti fenomeni di sintering e densificazione hanno portato ad occludere completamente la camera di reazione sviluppando notevoli sovrappressioni interne. Tali fenomeni sono stati approfonditi tramite analisi SEM e XRD. Si è constatato un aumento notevole della grandezza dei granuli in caso di trattamento in vapore con la formazione di legami stabili e con conservazione della porosità. Nel caso di trattamento senza vapore surriscaldato i granuli hanno sinterizzato tramite formazione di legami, ma sempre con conservazione della macroporosità. Il lavoro di tesi è stato inquadrato nel contesto tecnologico al riguardo le tecniche CCS esistenti ed in progetto, con un attento studio bibliografico riguardo lo stato dell’arte, impianti esistenti, costi, metodi di cattura usati, metodologie di trasporto dei gas, metodologie di stoccaggio esistenti e in progetto. Si sono considerati alcuni aspetti economici per sviluppare un modello previsionale di spesa per una possibile applicazione di cattura per un impianto di produzione energetica. Con la progettazione e dimensionamento di un sistema integrato di adsorbimento tramite l’accoppiamento di 2 reattori dedicati ai cicli di carbonatazione e calcinazione del materiale sorbente. Infine si sono considerati gli aspetti salienti dello stoccaggio del diossido di carbonio in reservoir tramite le tecniche di EOR e EGR (Enhanced Oil/Gas Recovery) utilizzando la stessa CO2 come fluido spiazzante degli idrocarburi in posto. Concludendo il lavoro di tesi e di sperimentazione ha contribuito in modo tangibile allo scopo prefissato, andando a caratterizzare un nuovo materiale per la cattura di diossido di carbonio da effluenti gassosi ad alta temperatura, ed andando a verificare un’importante fenomeno rigenerativo non previsto delle capacità sorbitive dei materiali sottoposti a test.
Resumo:
Le galassie spirali hanno la forma di un disco, con un nucleo globulare più o meno prominente detto bulge e alcune braccia a spirale che si avvolgono attorno ad esso. Il tutto è in rotazione attorno all'asse del disco, con una velocità angolare che varia dal centro alla periferia. Le spirali vengono designate con la lettera S, seguita da una lettera (a, b o c) a seconda dell'importanza dei bracci. Nelle spirali di tipo Sa, i bracci sono piuttosto stretti e il nucleo è preponderante, nelle Sb invece i bracci sono più prominenti e nelle Sc sono ancora più importanti rispetto al nucleo e hanno anche un aspetto piu' "diffuso". Le spirali barrate, che si indicano con la notazione SB seguita dalle lettere a, b o c, sono identiche alle precedenti, salvo per il fatto che le braccia partono dalle estremità di una barra di stelle e gas che attraversa diametralmente il bulge, anziché direttamente da questo. Il contenuto di queste galassie a spirale è piuttosto disomogeneo; la densità della materia diminuisce dal centro verso la periferia. Inoltre possiedono una grande quantità di gas mischiato a polvere, dal quale si formano tutt'ora molte nuove stelle. Le stelle sono concentrate nel nucleo, nei bracci e in un alone di ammassi globulari disposti intorno alla galassia. Inoltre, questo gas è soggetto a processi violenti come l'esplosione di supernoavae, che vi immettono grandi quantità di energia e altro materiale, perciò la materia interstellare è disposta in modo piuttosto irregolare, concentrata in nubi di varie dimensioni. E da queste nubi si formano le stelle. Nella prima parte dell'elaborato ci occuperemo del mezzo interstellare: temperatura e densità differenziano le fasi dell' ISM, da qui discendono i vari processi di emissione/assorbimento che vedremo nella seconda parte. Principalmente andremo ad analizzare cinque bande di emissione (banda X, ottica, radio, gamma e infrarossa) e vedremo come appaiono tipicamente le galassie a spirale a lunghezze d'onda differenti, quali sono i processi in gioco e come il mezzo interstellare sia fondamentale in quasi ogni tipo di processo. A temperature elevate, esso è responsabile dell'emissione X della galassia, mentre regioni più fredde, formate da idrogeno ionizzato, sono responsabili delle righe di emissione presenti nello spettro ottico. Il campo magnetico, tramite le sue interazioni con elettroni relativistici è la principale fonte dell'emissione radio nel continuo di una galassia a spirale, mentre quella in riga è dovuta a idrogeno atomico o a gas freddo. Vedremo infine come raggi cosmici e polvere, che fanno sempre parte del mezzo interstellare, siano rispettivamente la causa principale dell'emissione gamma e infrarossa.
Resumo:
Il rinnovato interesse da parte dei consumatori per le caratteristiche nutrizionali degli alimenti incentiva la ricerca in campo agroalimentare a sviluppare nuovi prodotti per il mercato attuale sempre più attento a salute e benessere. È in questo contesto che nasce a livello europeo il progetto Bake4Fun mirato allo sviluppo di soluzioni biotecnologiche innovative per la messa a punto di nuovi prodotti da forno funzionali. Nell’ambito di questo progetto europeo, lo scopo dello studio oggetto di questo elaborato di laurea è stato quello di valutare le proprietà antiossidanti e antinfiammatorie di diverse tipologie di pani creati ad hoc con farina di frumento o di farro e sottoposti a fermentazione convenzionale o con pasta madre (sourdough). Il farro appartiene alla famiglia dei cosiddetti “cereali antichi” e grazie al suo elevato profilo nutrizionale si presenta come un promettente candidato per la produzione di alimenti dalle proprietà benefiche. Similmente anche diverse tipologie di fermentazione sembrano in grado di possedere caratteristiche salutistiche. Pertanto, nell’ambito di B4F sono stati formulati e prodotti diversi tipi di pane e se ne sono voluti studiare i possibili effetti antiossidanti ed antiinfiammatori in vivo sul modello sperimentale del suino. Dopo 30 giorni di dieta arricchita con i diversi prodotti sperimentali miscelate in un rapporto di 1:1 con una dieta standard è stato valutato lo stato redox plasmatico mediante l’analisi di tre indicatori del danno ossidativo, quali TAC, GSH e TBARS. Il grado d’infiammazione è stato invece valutato attraverso l’analisi di otto citochine (IFNα, IFNγ, IL-1β, IL-4, IL-6, IL-8, IL-10 e TNFα) utilizzando un saggio multiparametrico di tipo ELISA. Tutti gli animali impiegati godevano di buona salute ed i loro plasmi sono stati analizzati sia all’inizio (T0) sia alla fine (T30) dell’esperimento. Sebbene i risultati conseguiti in relazione allo status ossidativo ed infiammatorio nei suini impiegati non abbiano evidenziato particolari differenze tra i diversi tipi di diete sperimentali, non si esclude che eventuali variazioni delle condizioni sperimentali possano portare a conclusioni diverse o che gli effetti siano maggiormente visibili a livello di altri parametri quali, ad esempio, la variazione della microflora intestinale o l’indice glicemico dei prodotti. Questa possibilità unitamente all’importanza degli effetti salutistici dei cereali antichi e delle diverse tipologie di fermentazione, giustificate da altre ricerche in letteratura, sottolineano la necessità di ulteriori studi in questo ambito.
Resumo:
Il presente elaborato vuole illustrare alcuni risultati matematici di teoria della misura grazie ai quali si sono sviluppate interessanti conseguenze nel campo della statistica inferenziale relativamente al concetto di statistica sufficiente. Il primo capitolo riprende alcune nozioni preliminari e si espone il teorema di Radon-Nikodym, sulle misure assolutamente continue, con conseguente dimostrazione. Il secondo capitolo dal titolo ‘Applicazioni alla statistica sufficiente’ si apre con le definizioni degli oggetti di studio e con la presentazione di alcune loro proprietà matematiche. Nel secondo paragrafo si espongono i concetti di attesa condizionata e probabilità condizionata in relazione agli elementi definiti nel paragrafo iniziale. Si entra nel corpo di questo capitolo con il terzo paragrafo nel quale definiamo gli insiemi di misura, gli insiemi di misura dominati e il concetto di statistica sufficiente. Viene qua presentato un importante teorema di caratterizzazione delle statistiche sufficienti per insiemi dominati e un suo corollario che descrive la relativa proprietà di fattorizzazione. Definiamo poi gli insiemi omogenei ed esponiamo un secondo corollario al teorema, relativo a tali insiemi. Si considera poi l’esempio del controllo di qualità per meglio illustrare la nozione di statistica sufficiente osservando una situazione più concreta. Successivamente viene introdotta la nozione di statistica sufficiente a coppie e viene enunciato un secondo teorema di caratterizzazione in termini di rapporto di verosimiglianza. Si procede quindi ad un confronto tra questi due tipi di sufficienza. Tale confronto viene operato in due situazioni differenti e porta a risultati diversi per ogni caso. Si conclude dunque l’elaborato marcando ancora l’effettiva bontà di una statistica sufficiente in termini di informazioni contenute al suo interno.
Resumo:
Per “effetto domino” si intende uno scenario incidentale in cui un evento primario si propaga ad apparecchiature contigue tramite un vettore di impatto, con innesco di eventi incidentali secondari ed amplificazione delle conseguenze finali dell’incidente. Nei casi di maggior gravità gli effetti di scenari incidentali di questo tipo possono danneggiare contemporaneamente più impianti appartenenti allo stesso stabilimento oppure addirittura coinvolgere più stabilimenti. Gli incidenti dovuti ad effetto domino sono tra i più severi e complessi che possono avere luogo nell’industria di processo; la complessità che contraddistingue l’effetto domino influenza anche la definizione stessa del fenomeno e ne rende difficoltosa l’individuazione delle caratteristiche principali. È comunque condivisa l’idea che, perché uno scenario incidentale evolva con effetto domino, sia necessario l’elemento “propagazione”, ovvero lo sviluppo di uno o più scenari secondari causati dall’incidente iniziale con un aggravio dell’area di danno rispetto a quella connessa allo scenario incidentale iniziale. L’effetto domino è un argomento di grande interesse nell’ambito della valutazione del rischio di incidente rilevante, sia a causa dell’elevato rischio connesso alla sequenza di eventi incidentali che esso comporta, sia dell’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. La Direttiva Europea 2012/18/UE (la cosiddetta Direttiva Seveso III) ed il suo recente recepimento italiano, il D.Lgs. 105/2015, stabiliscono la necessità di valutare l’effetto domino tra stabilimenti, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. Tuttavia anche la valutazione dell’effetto domino all’interno dei singoli stabilimenti è importante, potendo essa rappresentare, da un certo punto di vista, il completamento dell’analisi di sicurezza dello stabilimento. In un contesto come quello dell’analisi del rischio di incidente rilevante, in corrispondenza dell’aggiornamento quinquennale del Rapporto di Sicurezza di stabilimento richiesto dalle norme di legge, nel presente lavoro di tesi è stata effettuata la valutazione dell’effetto domino intra-stabilimento per un sito a rischio di incidente, applicando la metodologia proposta nell’Allegato E del D.Lgs. 105/2015.
Resumo:
A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.
Resumo:
In questo studio abbiamo voluto tentare un approccio multifunzionale per l’analisi della società moderna, più precisamente per analizzare la figura della donna e dell’uomo in questa epoca, figure che non potrebbero essere analizzate senza considerare le tematiche genitoriali e familiari che sono alla base della società stessa, italiana e non solo. Abbiamo voluto indagare sia la figura materna che quella paterna, prendendo spunto dalle opere di Massimo Recalcati e di John Bowlby che tanto hanno meditato per quanto riguarda il rapporto della madre e del padre con il proprio figlio. Ci è sembrato necessario partire dalla famiglia e dalle figure genitoriali poiché queste costituiscono le fondamenta, sin dai tempi antichi, di ogni società, e considerare come sono variate tali figure nell’epoca ipermoderna costituisce un punto essenziale per delineare alcuni punti fondamentali di quella che Zygmunt Baumann ha definito società liquida. La scienza medica ha insegnato che alla base della «cultura» (in senso antropologico), di ogni cultura, sta il tenace legame del figlio con la propria madre, in un rapporto di dipendenza biologicamente determinato dalla prolungata infanzia dell’essere umano, condizionandone l’intera esistenza e, in qualche modo, sottraendogli sempre il raggiungimento della piena maturità. Infatti bisogna considerare che l’intera esistenza di un uomo, di qualsiasi essere umano, è influenzata da ciò che egli vede e sente nei primi anni di vita (nei primi 3 anni di vita, secondo la scienza), pertanto il rapporto con la madre, il primo rapporto con la figura materna, è basilare per la vita futura dell’individuo. Una volta terminato il ruolo materno, ossia quando il ragazzo è pronto per entrare nella società, è il padre (o meglio, la figura paterna) ad accompagnarlo nel suo raggiungimento della virile maturità e a prenderlo per mano durante il periodo, cosiddetto, della castrazione (psicologica), ossia della piena maturità e del distacco dal “seno materno”. Il femminismo con i suoi movimenti degli anni ’70 ha portato ad una rottura, ad una vera e propria rivoluzione nel rapporto tra le parti. La donna ha acquisito una sempre maggiore consapevolezza portando non solo ad un nuovo e rinnovato tipo di femminilità, ma anche, dirimpetto, ad una differente tipologia di mascolinità, probabilmente meno consapevole e più debole, alimentando una sorta di sentimento ginecofobico che acuisce man mano che si va avanti, nonché un’assenza di dialogo tra i due universi, quello femminile e quello maschile, con una paura di fondo da parte di quest’ultimo.