998 resultados para relazione funzione dominio codominio spazi Lp spazi di Sobolev analisi funzionale
Resumo:
Lo sviluppo di questa tesi è stato quello di analizzare diversi campioni di pasta di cacao e di cioccolato liquido prelevati, rispettivamente, dai tank prima del dosaggio degli ingredienti e dal preleva campioni della conca fine concaggio. Le analisi di viscosità effettuate sui campioni hanno l’obiettivo di determinare la causa della variazione di viscosità in una particolare ricetta di cioccolato. La viscosità è una proprietà che può essere influenzata da numerosi fattori, perciò è difficile tenere sempre in considerazione tutte le variabili. Ciò che ho riscontrato durante questa ricerca è stato il fatto che la viscosità del cioccolato viene influenzata, o comunque dipende, dalla viscosità della pasta cacao. Un altro fattore importante è la distribuzione particellare del cioccolato; questa ipotesi origina dal fatto che si hanno viscosità diverse delle conche a parità di altre variabili come l’umidità, la temperatura, la percentuale in grassi o l’aggiunta di lecitina. Questo ulteriore fattore di grandezza delle particelle necessita l’ottimizzazione dei parametri di raffinazione per poter ottenere sempre la stessa distribuzione e può dipendere dalla variabilità delle materie prime (pasta cacao) o dalle dimensioni dello zucchero. I diversi fattori che possono essere presi in considerazione per la variabilità della viscosità sono la distribuzione particellare dello zucchero, che può determinare la presenza o l’assenza di grumi all’interno del cioccolato, la viscosità della materia prima della pasta cacao e la presenza di una percentuale troppo elevata di umidità o di grasso. Ci possono anche essere fattori di processo che alterano la corretta produzione del cioccolato, come il controllo non adeguato delle impostazioni degli strumenti che comporterebbe temperature o velocità scorrette di produzione, oppure la variazione della sequenza di dosaggio che consiste nell’aggiunta di un ingrediente prima o dopo di quando viene richiesto dalla specifica ricetta di quel cioccolato.
Resumo:
I vantaggi dell’Industria 4.0 hanno stravolto il manufacturing. Ma cosa vuol dire "Industria 4.0"? Essa è la nuova frontiera del manufacturing, basata su princìpi che seguono i passi avanti dei sistemi IT e della tecnologia. Dunque, i suoi pilastri sono: integrazione, verticale e orizzontale, digitalizzazione e automazione. L’Industria 4.0 coinvolge molte aree della supply chain, dai flussi informativi alla logistica. In essa e nell’intralogistica, la priorità è sviluppare dei sistemi di material handling flessibili, automatizzati e con alta prontezza di risposta. Il modello ideale è autonomo, in cui i veicoli fanno parte di una flotta le cui decisioni sono rese decentralizzate grazie all'alta connettività e alla loro abilità di collezionare dati e scambiarli rapidamente nel cloud aziendale.Tutto ciò non sarebbe raggiungibile se ci si affidasse a un comune sistema di trasporto AGV, troppo rigido e centralizzato. La tesi si focalizza su un tipo di material handlers più flessibile e intelligente: gli Autonomous Mobile Robots. Grazie alla loro intelligenza artificiale e alla digitalizzazione degli scambi di informazioni, interagiscono con l’ambiente per evitare ostacoli e calcolare il percorso ottimale. Gli scenari dell’ambiente lavorativo determinano perdite di tempo nel tragitto dei robot e sono queste che dovremo studiare. Nella tesi, i vantaggi apportati dagli AMR, come la loro decentralizzazione delle decisioni, saranno introdotti mediante una literature review e poi l’attenzione verterà sull’analisi di ogni scenario di lavoro. Fondamentali sono state le esperienze nel Logistics 4.0 Lab di NTNU, per ricreare fisicamente alcuni scenari. Inoltre, il software AnyLogic sarà usato per riprodurre e simulare tutti gli scenari rilevanti. I risultati delle simulazioni verranno infine usati per creare un modello che associ ad ogni scenario rilevante una perdita di tempo, attraverso una funzione. Per questo saranno usati software di data analysis come Minitab e MatLab.
Resumo:
In questo lavoro di tesi viene presentata un’analisi di sostenibilità economica, ambientale e sociale di un sistema di cattura e purificazione della CO2 post-combustione. Al fine di ottenere i dati utili al calcolo di indici significativi di sostenibilità, si è scelto di modellare, attraverso il software Aspen Plus®, un processo di assorbimento chimico con ammine, tecnologia matura e spesso impiegata a questo scopo per settori industriali di taglie superiori. Al sistema di assorbimento viene poi fatta seguire un’unità di compressione e purificazione, finalizzata al raggiungimento di specifiche condizioni della corrente in uscita, legate alla successiva tipologia di trasporto considerata: gas pressurizzato via pipeline o gas liquefatto via nave. L’analisi economica si è basata sul calcolo di costi operativi, costi variabili, costo della CO2 evitata e consumo specifico di energia (SPECCA). La simulazione ha infatti consentito di ottenere un dimensionamento di massima delle apparecchiature e il consumo di utenze, valori necessari alla stima degli indici. Gli indici economici calcolati sono poi stati utilizzati per comprendere quale parte del processo fosse la più critica e che impatto avessero le unità di compressione e purificazione rispetto alla presenza del solo impianto di cattura. Analisi simili sono state svolte anche in termini di sostenibilità ambientale e sociale. La prima è stata svolta calcolando l’effettiva rimozione di CO2 del sistema, tenendo in considerazione le emissioni dirette e indirette connesse al funzionamento degli apparati. L’analisi sociale è stata ridotta a un’analisi qualitativa della sicurezza, attuata attraverso il calcolo dell’Indice di sicurezza intrinseca.
Resumo:
La prima parte della seguente tesi intende studiare lo stato dell’arte in ambito delle principali tecnologie di smaltimento e di recupero dei rifiuti da costruzione, per poi analizzare le metodologie di analisi del sistema di decostruzione, basate su processi di calcolo semplificati. La seconda parte si concentra invece sul confronto tra due ipotesi di intervento differenti: uno scenario di riqualificazione energetica e uno di demolizione e ricostruzione. L’obiettivo della ricerca è indagare quale dei due interventi sia il più circolare e sostenibile, dal punto di vista ambientale ed economico. Questo obiettivo si concretizza mediante lo svolgimento di una analisi LCA attraverso l’utilizzo del software OneClick LCA. Il caso di studio sul quale viene svolta tale indagine consiste nella villa realizzata agli inizi del Novecento, appartenente al complesso “Corte Palazzo” sito ad Argelato (Bologna). Per lo scenario di demolizione, dopo una prima analisi iniziale delle tecniche circolari da poter applicare più adeguate al contesto esistente, è stato sviluppato un progetto che rispettasse le stesse caratteristiche dimensionali (in termini di sagoma) e le stesse prestazioni dell’involucro (in termini di trasmittanza termica) dell’edificio riqualificato. Il metodo di analisi proposto, reiterabile e proposto ad altri casi di studio, eventualmente implementato per includere tutti i materiali che compongono il sistema costruttivo e non soltanto quelli dell’involucro, rappresenta un efficace strumento di valutazione dell’impatto ambientale ed economico degli interventi, per consentire ai progettisti e ai committenti di compiere scelte più consapevoli.
Resumo:
La metabolomica è una delle discipline più innovative tra quelle integrate al settore agroalimentare e, nonostante ciò, è già ampiamente sfruttata ed apprezzata. La risonanza magnetica nucleare (che verrà ampiamente trattata in seguito) è la tecnica d’elezione che permette di svolgere analisi in questo ambito. Nonostante l’utilità indiscussa di questa analisi, molti alimenti non sono stati protagonisti di studi in questo settore. Il latte d'asina è solo uno dei prodotti che per via della loro poca diffusione e centralità nel mercato non sono conosciuti e sfruttati appieno. Lo scopo di questo lavoro è quello di indagare il metaboloma del latte d'asina, come primo tassello per studi più avanzati.
Resumo:
Background Recentemente la letteratura scientifica ha dimostrato come un corretto controllo posturale faciliti i movimenti dell’arto superiore. Ci sono evidenze secondo cui, applicando al paziente dei contenimenti sul tronco, si ha un miglioramento della funzionalità dell’arto superiore. Obiettivi L’obiettivo principale della tesi era quello di verificare come il sostegno del tronco con l’utilizzo di una stabile struttura assiale, attraverso un supporto esterno definito “trunk constraint”, incrementi il controllo posturale, per facilitare i movimenti frazionati degli arti superiori in persone con esiti di patologie neurologiche. Materiali e metodi Il caso clinico riguarda un uomo di 60 anni con esiti di emiparesi sinistra da ictus ischemico destro. E’ stato eseguito un protocollo di dieci sessioni di trattamento, di un’ora ciascuna, in cui veniva applicata la facilitazione attraverso trunk constraint in diversi setting riabilitativi. I dati sono stati raccolti tramite le scale: Trunk Control Test, Trunk Impairment Scale e Fugl-Meyer Assessment. Inoltre, è stata eseguita l’analisi osservazionale, attraverso videoripresa, di un gesto funzionale dell’arto superiore. Risultati I dati rilevati dimostrano degli effetti positivi rispetto alle ipotesi di partenza. Infatti sono stati riscontrati miglioramenti negli item delle scale somministrate e nella valutazione qualitativa dell’arto superiore. In particolare, si è evidenziato un miglioramento nel controllo del tronco nella scala Trunk Control Test e nella Trunk Impairment Scale e della funzione dell’arto superiore alla scala Fugl-Meyer Assessment. L’analisi osservazionale dei video dimostra un miglioramento del timing di attivazione durante la fase di reaching. Conclusioni I risultati ottenuti supportano il fatto che un incremento dell’attività antigravitaria del tronco, anche attraverso supporti esterni come la trunk constraint, possono facilitare un miglioramento funzionale dell’arto superiore.
Resumo:
Questa tesi si propone di analizzare due macchinari della linea di “Handling” della divisione Active di IMA S.p.A., ovvero la macchina “Cyclops” e la macchina “Hercules”. Per entrambe le macchine si vuole svolgere un’analisi completa dei rischi strutturali: si vogliono individuare, infatti, i componenti strutturalmente critici al fine di proporre migliorie e soluzioni per evitare problematiche o danneggiamenti alle macchine. Per l’individuazione delle criticità strutturali, la prima cosa effettuata è stata un’analisi del funzionamento dei macchinari, attraverso uno studio dei singoli componenti e dei loro montaggi, a cui è seguita un’analisi dei carichi e delle sollecitazioni agenti su entrambe le macchine in condizioni di lavoro standard. A valle di queste analisi è stato possibile, quindi, individuare i componenti maggiormente sollecitati e, con l’ausilio di un software di nome Creo Simulate, ovvero un’estensione del software PTC Creo, molto diffuso nell’ambito della progettazione 3D di componenti industriali, sono state eseguite delle simulazioni virtuali di calcolo agli elementi finiti. Dall’analisi dei risultati delle simulazioni eseguite al calcolatore si sono evidenziate le eventuali criticità di ogni componente proponendo modifiche di progettazione, sia in termini di modifica della geometria del componente, sia riguardo a possibili modifiche nella scelta dei materiali. In aggiunta alle simulazioni virtuali, per completezza d’analisi, sono state svolte anche analisi strutturali di tipo analitico per la verifica di collegamenti bullonati e collegamenti saldati e per la verifica a fatica di alberi in rotazione.
Resumo:
La crescente diffusione della Digitalizzazione all’interno di numerosi settori industriali sta trasformando le imprese, persino in aree che da sempre dipendono dalla materialità fisica. Infatti, grazie all’avviamento di una trasformazione digitale nell’operatività aziendale è possibile aumentare la propria efficienza produttiva e la propria flessibilità, producendo un effetto senza precedenti sulla competitività della catena del valore globale. Sebbene i vantaggi attuali e potenziali della produzione digitale siano notevoli, spesso le imprese manifatturiere risultano essere ritardatarie nell’adozione di strategie digitali. Più precisamente, il seguente elaborato di Tesi si è focalizzato sulla digitalizzazione degli elaborati tecnici meccanici all’interno di un’azienda leader nella progettazione e costruzione di macchine e linee personalizzate atte al confezionamento di prodotti farmaceutici e cosmetici: Marchesini Group S.p.A. In particolare, inizialmente lo studio si è concentrato sull’analisi dell’attuale utilizzo del disegno tecnico all’interno della catena produttiva di una macchina automatica e, successivamente, sull’elaborazione di una proposta di sviluppo di un applicativo che fosse in grado di eliminare efficacemente il formato cartaceo degli elaborati tecnici mediante una digitalizzazione degli stessi e dei processi gestionali che lo utilizzano. Pertanto, un primo obiettivo della presente Tesi è analizzare le diverse criticità connesse all’attuale gestione della produzione di una macchina automatica in termini di tempi, costi ed inefficienze dovute prevalentemente alla presenza del formato cartaceo dei documenti tecnici. In aggiunta, come secondo obiettivo, si vuole verificare che la proposta di sviluppo di un applicativo funzionale alla digitalizzazione dei disegni tecnici non comporterebbe dei benefici solamente in termini economici ma anche in termini di produttività, in quanto migliorerebbe le prestazioni all’interno dell’intero sistema produttivo.
Resumo:
Diverse spiagge siciliane sono a rischio erosione.Tra le cause vi sono l'elevata urbanizzazione costiera della regione e la riduzione degli apporti solidi fluviali, per cui il bilancio sedimentario della spiaggia risulta negativo. L'innalzamento del livello del mare prodotto dal surriscaldamento globale potrà solo aumentare il problema dell'erosione costiera, rendendo necessari interventi di protezione. La Regione Siciliana ha redatto nel 2020 il Piano Regionale Contro l'Erosione Costiera (PRCEC) nel quale fa riferimento ai depositi sottomarini quale fonte strategica per l'esecuzione di interventi di ripascimento. Il seguente lavoro di tesi si pone l'obiettivo di valutare l'esecuzione di interventi di ripascimento con l'utilizzo di sedimenti di spiagge sottomarine profonde e si fonda sul lavoro svolto durante il periodo di tirocinio presso la Società Italiana Dragaggi (SIDRA) S.p.A., società specializzata in dragaggi sia per la manutenzione dei fondali, sia per la protezione costiera. In vista di una richiesta di interventi di ripascimento da parte della regione Siciliana, la società si è occupata di ricercare dei depositi sottomarini a largo delle coste della Regione ed ha ottenuto la concessione per uno di questi. Le profondità a cui si trovatale deposito riduce notevolmente le alternative adottabili per il dragaggio. Il mezzo standard per eseguire dragaggi di profondità è una draga TSHD con l’estensione del braccio di aspirazione per il raggiungimento delle profondità richieste. Questo tipo di draga è conveniente per elevati quantitativi di materiale mentre per volumi ridotti sarebbe potuta risultare poco competitiva. Si sono quindi analizzate delle possibili alternative di estrazione per le quali si sono valutate le produzioni e i costi di intervento corrispondenti. Il lavoro di tesi si è chiuso con il confronto dei costi di tali alternative per l’individuazione dell’opzione più conveniente.
Resumo:
Con l’avvento dell’Industry 4.0, l’utilizzo dei dispositivi Internet of Things (IoT) è in continuo aumento. Le aziende stanno spingendo sempre più verso l’innovazione, andando ad introdurre nuovi metodi in grado di rinnovare sistemi IoT esistenti e crearne di nuovi, con prestazioni all’avanguardia. Un esempio di tecniche innovative emergenti è l’utilizzo dei Digital Twins (DT). Essi sono delle entità logiche in grado di simulare il reale comportamento di un dispositivo IoT fisico; possono essere utilizzati in vari scenari: monitoraggio di dati, rilevazione di anomalie, analisi What-If oppure per l’analisi predittiva. L’integrazione di tali tecnologie con nuovi paradigmi innovativi è in rapido sviluppo, uno tra questi è rappresentato dal Web of Things (WoT). Il Web of Thing è un termine utilizzato per descrivere un paradigma che permette ad oggetti del mondo reale di essere gestiti attraverso interfacce sul World Wide Web, rendendo accessibile la comunicazione tra più dispositivi con caratteristiche hardware e software differenti. Nonostante sia una tecnologia ancora in fase di sviluppo, il Web of Thing sta già iniziando ad essere utilizzato in molte aziende odierne. L’elaborato avrà come obiettivo quello di poter definire un framework capace di integrare un meccanismo di generazione automatica di Digital Twin su un contesto Web of Thing. Combinando tali tecnologie, si potrebbero sfruttare i vantaggi dell’interoperabilità del Web of Thing per poter generare un Digital Twin, indipendentemente dalle caratteristiche hardware e software degli oggetti da replicare.
Resumo:
The biological complexity of NGF action is achieved by binding two distinct Neurotrophin receptors, TrkA and p75NTR. While several reports have provided lines of evidence on the interaction between TrkA and p75NTR at the plasma membrane, much fewer data are available on the consequence of such an interaction in terms of intracellular signaling. In this study, we have focused on how p75NTR may affect TrkA downstream signaling with respect to neuronal differentiation. Here, we have shown that cooperation between p75NTR and TrkA results in an increased NGF-mediated TrkA autophosphorylation, leads to a sustained activation of ERK1/2 and accelerates neurite outgrowth. Interestingly, neurite outgrowth is concomitant with a selective enhancement of the AP-1 activity and the transcriptional activation of genes such as GAP-43 and p21(CIP/WAF), known to be involved in the differentiation process. Collectively, our results unveil a functional link between the specific expression profile of neurotrophin receptors in neuronal cells and the NGF-mediated regulation of the differentiation process possibly through a persistent ERKs activation and the selective control of the AP-1 activity. In our studies we discuss the functional role of the neurotrophin receptor p75NTR and TrkA in a ligand-dependent signal transduction. It is known that p75NTR is also involved in the mediation of cell death ligand dependent. Here we show for the first time that the membrane receptor p75NTR, upon binding to b- Amyloid (Ab) peptide, is able to transduce a cytotoxic signal through a mechanism very similar to the one adopted by Tumor Necrosis Factor Receptor 1 (TNFR1), when activated by TNFa. We define that in neuroblastoma cell line Ab cytotoxicity signals through a pathway depending on p75NTR death domain (DD), mostly through some specific conserved residues. We identified that TRADD is the first interactor recruiting to the membrane and activates JNK and NF-kB transcription factors. Since Ab is defined as the most important aetiologic element associated with the Alzheimer’s Disease (AD), characterization of the mechanism involved in the mediation of the neurodegeneration can suggest also new therapeutic approaches.
Resumo:
Si parte dalla storia delle console attraversando tutte le varie epoche.In seguito si analizza nel dettaglio le quote di mercato del mercato delle console nell'anno 2010 e primi mesi del 2011 per capire come si muovono strategicamente le tre più importanti aziende di console nel mondo.
Resumo:
Definizione del problema: Nonostante il progresso della biotecnologia medica abbia consentito la sopravvivenza del feto, fuori dall’utero materno, ad età gestazionali sempre più basse, la prognosi a breve e a lungo termine di ogni nuovo nato resta spesso incerta e la medicina non è sempre in grado di rimediare completamente e definitivamente ai danni alla salute che spesso contribuisce a causare. Sottoporre tempestivamente i neonati estremamente prematuri alle cure intensive non ne garantisce la sopravvivenza; allo stesso modo, astenervisi non ne garantisce la morte o almeno la morte immediata; in entrambi i casi i danni alla salute (difetti della vista e dell’udito, cecità, sordità, paralisi degli arti, deficit motori, ritardo mentale, disturbi dell’apprendimento e del comportamento) possono essere gravi e permanenti ma non sono prevedibili con certezza per ogni singolo neonato. Il futuro ignoto di ogni nuovo nato, insieme allo sgretolamento di terreni morali condivisi, costringono ad affrontare laceranti dilemmi morali sull’inizio e sul rifiuto, sulla continuazione e sulla sospensione delle cure. Oggetto: Questo lavoro si propone di svolgere un’analisi critica di alcune strategie teoriche e pratiche con le quali, nell’ambito delle cure intensive ai neonati prematuri, la comunità scientifica, i bioeticisti e il diritto tentano di aggirare o di risolvere l’incertezza scientifica e morale. Tali strategie sono accomunate dalla ricerca di criteri morali oggettivi, o almeno intersoggettivi, che consentano ai decisori sostituti di pervenire ad un accordo e di salvaguardare il vero bene del paziente. I criteri esaminati vanno dai dati scientifici riguardanti la prognosi dei prematuri, a “fatti” di natura più strettamente morale come la sofferenza del paziente, il rispetto della libertà di coscienza del medico, l’interesse del neonato a sopravvivere e a vivere bene. Obiettivo: Scopo di questa analisi consiste nel verificare se effettivamente tali strategie riescano a risolvere l’incertezza morale o se invece lascino aperto il dilemma morale delle cure intensive neonatali. In quest’ultimo caso si cercherà di trovare una risposta alla domanda “chi deve decidere per il neonato?” Metodologia e strumenti: Vengono esaminati i più importanti documenti scientifici internazionali riguardanti le raccomandazioni mediche di cura e i pareri della comunità scientifica; gli studi scientifici riguardanti lo stato dell’arte delle conoscenze e degli strumenti terapeutici disponibili ad oggi; i pareri di importanti bioeticisti e gli approcci decisionali più frequentemente proposti ed adoperati; alcuni documenti giuridici internazionali riguardanti la regolamentazione della sperimentazione clinica; alcune pronunce giudiziarie significative riguardanti casi di intervento o astensione dall’intervento medico senza o contro il consenso dei genitori; alcune indagini sulle opinioni dei medici e sulla prassi medica internazionale; le teorie etiche più rilevanti riguardanti i criteri di scelta del legittimo decisore sostituto del neonato e la definizione dei suoi “migliori interessi” da un punto di vista filosofico-morale. Struttura: Nel primo capitolo si ricostruiscono le tappe più importanti della storia delle cure intensive neonatali, con particolare attenzione agli sviluppi dell’assistenza respiratoria negli ultimi decenni. In tal modo vengono messi in luce sia i cambiamenti morali e sociali prodotti dalla meccanizzazione e dalla medicalizzazione dell’assistenza neonatale, sia la continuità della medicina neonatale con il tradizionale paternalismo medico, con i suoi limiti teorici e pratici e con lo sconfinare della pratica terapeutica nella sperimentazione incontrollata. Nel secondo capitolo si sottopongono ad esame critico le prime tre strategie di soluzione dell’incertezza scientifica e morale. La prima consiste nel decidere la “sorte” di un singolo paziente in base ai dati statistici riguardanti la prognosi di tutti i nati in condizioni cliniche analoghe (“approccio statistico”); la seconda, in base alla risposta del singolo paziente alle terapie (“approccio prognostico individualizzato”); la terza, in base all’evoluzione delle condizioni cliniche individuali osservate durante un periodo di trattamento “aggressivo” abbastanza lungo da consentire la raccolta dei dati clinici utili a formulare una prognosi sicura(“approccio del trattamento fino alla certezza”). Viene dedicata una più ampia trattazione alla prima strategia perché l’uso degli studi scientifici per predire la prognosi di ogni nuovo nato accomuna i tre approcci e costituisce la strategia più diffusa ed emblematica di aggiramento dell’incertezza. Essa consiste nella costruzione di un’ “etica basata sull’evidenza”, in analogia alla “medicina basata sull’evidenza”, in quanto ambisce a fondare i doveri morali dei medici e dei genitori solo su fatti verificabili (le prove scientifiche di efficacia delle cure)apparentemente indiscutibili, avalutativi o autocertificativi della moralità delle scelte. Poiché la forza retorica di questa strategia poggia proprio su una (parziale) negazione dell’incertezza dei dati scientifici e sulla presunzione di irrilevanza della pluralità e della complessità dei valori morali nelle decisioni mediche, per metterne in luce i limiti si è scelto di dedicare la maggior parte del secondo capitolo alla discussione dei limiti di validità scientifica degli studi prognostici di cui i medici si avvalgono per predire la prognosi di ogni nuovo nato. Allo stesso scopo, in questo capitolo vengono messe in luce la falsa neutralità morale dei giudizi scientifici di “efficacia”, “prognosi buona”, “prognosi infausta” e di “tollerabilità del rischio” o dei “costi”. Nel terzo capitolo viene affrontata la questione della natura sperimentale delle cure intensive per i neonati prematuri al fine di suggerire un’ulteriore ragione dell’incertezza morale, dell’insostenibilità di obblighi medici di trattamento e della svalutazione dell’istituto del consenso libero e informato dei genitori del neonato. Viene poi documentata l’esistenza di due atteggiamenti opposti manifestati dalla comunità scientifica, dai bioeticisti e dal diritto: da una parte il silenzio sulla natura sperimentale delle terapie e dall’altra l’autocertificazione morale della sperimentazione incontrollata. In seguito si cerca di mostrare come entrambi, sebbene opposti, siano orientati ad occultare l’incertezza e la complessità delle cure ai neonati prematuri, per riaffermare, in tal modo, la precedenza dell’autorità decisionale del medico rispetto a quella dei genitori. Il quarto capitolo, cerca di rispondere alla domanda “chi deve decidere in condizioni di incertezza?”. Viene delineata, perciò, un’altra strategia di risoluzione dell’incertezza: la definizione del miglior interesse (best interest) del neonato, come oggetto, limite e scopo ultimo delle decisioni mediche, qualsiasi esse siano. Viene verificata l’ipotesi che il legittimo decisore ultimo sia colui che conosce meglio di ogni altro i migliori interessi del neonato. Perciò, in questo capitolo vengono esposte e criticate alcune teorie filosofiche sul concetto di “miglior interesse” applicato allo speciale status del neonato. Poiché quest’analisi, rivelando l’inconoscibilità del best interest del neonato, non consente di stabilire con sicurezza chi sia intitolato a prendere la decisione ultima, nell’ultimo capitolo vengono esaminate altre ragioni per le quali i genitori dovrebbero avere l’ultima parola nelle decisioni di fine o di proseguimento della vita. Dopo averle scartate, viene proposta una ragione alternativa che, sebbene non risolutiva, si ritiene abbia il merito di riconoscere e di non mortificare l’irriducibilità dell’incertezza e l’estrema complessità delle scelte morali, senza rischiare, però, la paralisi decisionale, il nichilismo morale e la risoluzione non pacifica dei conflitti.
Resumo:
Lo sviluppo urbano avvenuto negli ultimi 20 anni soprattutto nelle grandi città, ma anche in quelle più piccole, è stato definito con il termine americano “urban sprawl”. In linea del tutto generale, lo sprawl può essere definito come la tendenza delle aree urbane a svilupparsi in maniera dispersa e disorganizzata nelle campagne circostanti. I principali impatti del fenomeno riguardano il consumo e l’impermeabilizzazione del suolo oltre a forti impatti su tutte le altre matrici ambientali. Per una corretta pianificazione necessita di essere studiato e quantificato nelle sue differenti declinazioni. Nella presente tesi vengono riportati i risultati della analisi diacronica nel Comune di Carpi (Provincia di Modena) attraverso una sequenza temporale di mappe dell’uso/copertura del suolo (1954,1976,1997,2003,2008) appositamente redatte. Vengono, in particolare, analizzati gli aspetti legati allo sviluppo urbano (del comune e delle frazioni di sua competenza) al fine di evidenziare l’occorrenza di sprawl. Ciò è stato fatto attraverso l’analisi degli andamenti dell’area urbana e di quella agricola nel tempo, delle trasformazioni principali avvenute nel territorio (sia in termini qualitativi che quantitativi), dell’evoluzione della rete infrastrutturale e infine mediante il calcolo di indici propri dell’ecologia del paesaggio utilizzati in molti studi sullo sprawl urbano. Dai risultati di questa analisi emerge che il territorio in esame si è fortemente trasformato dal 1954 al 1976; in particolare l’urbanizzazione è avvenuta in un primo tempo a carico del centro principale di Carpi e in seguito (1976-2008) ha interessato maggiormente le frazioni secondarie e l’edificato discontinuo lungo le principali infrastrutture viarie. Questo aspetto è attribuibile al fenomeno dello sprawl in termini di sviluppo periurbano e di invasione delle campagne. Il calcolo degli indici ha evidenziato che l’area urbana totale è fortemente dispersa, sia rispetto al centro principale che considerata come totale, fin dal 1954 (alta entropia relativa di Shannon) e contemporaneamente il territorio agricolo si presenta frammentato (Patch Density e Mean Patch Size) e con un’eterogeneità ambientale abbastanza limitata; questi indici non mostrano però un andamento che indichi un aumento dello sprawl nella sequenza temporale. Ciò che gli indici rilevano è l’urbanizzazione veloce e compatta avvenuta tra il 1954 ed il 1976. Il presente studio rivela quindi l’inadeguatezza degli indici scelti ad evidenziare il fenomeno dello sprawl negli ultimi vent’anni nel territorio d’indagine a causa della bassa sensibilità a trasformazioni molto moderate ed a scale di dettaglio dell’area urbana molto piccole.