941 resultados para TCP, criteri di valutazione, fairness, latenza


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La seguente tesi tratta la bonifica dell' area comunale della zona denominata " Ex Orsi - Mangelli" nella città di Forlì, iniziando con una introduzione che analizza la pericolosità dei siti inquinati e la situazione attuale in Italia, Emilia Romagna e in Provincia di Forlì-Cesena; successivamente si analizzano tutte le procedure per i terreni inquinati, descritte nel D.Lgs 152/06, descrivendo anche le principali tecniche di bonifica e i criteri di scelta, concludendo con l'analisi, passata e presente, dell' area " Ex Orsi - Mangelli", esaminando i processi produttivi che hanno determinato tali episodi di inquinamento tra il 1900 e il 1993 e la situazione attuale dell' area.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si sviluppa attraverso 5 capitoli volti a mostrare l'importanza della valutazione economica del marchio. Si andrà a definire il concetto di marchio e di brand licensing per passare così a descrivere uno dei principali metodi di valutazione: il Relief from Royalty, che pone come input chiave di tale valutazione il tasso di royalty. Si è inoltre svolta un'analisi di tale tasso, in 2 settori merceologici diversi ma collegati, per poter evidenziare i termini che incidono maggiormente sul suo valore e quindi sul valore del marchio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo principale della presente tesi è quello di realizzare un progetto di miglioramento sismico per la porzione del secondo chiostro dell’ ex convento di S. Francesco, a cui è stato affiancato un progetto architettonico di riqualificazione di alcune aree al momento non valorizzate e un progetto di prevenzione incendi. In seguito all’analisi dell’evoluzione storica è stata effettuata una caratterizzazione costruttiva degli elementi strutturali tramite rilievi e sono state quindi individuate le vulnerabilità strutturali che potrebbero portare, in caso di sisma, all’attivazione dei cinematismi di collasso. Si è poi svolta un’analisi del livello di sicurezza sismica secondo il livello di valutazione LV1, cioè un’analisi qualitativa secondo modelli semplificati, applicando il modello semplificato proposto dalle Linee Guida per la tipologia “Palazzi, ville e altre strutture con pareti di spina ed orizzontamenti intermedi”, che ha lo scopo di fornire come risultato un indice della sicurezza sismica dell’intero edificio. I risultati della valutazione globale sono affiancati dai risultati ottenuti tramite l’applicazione delle tabelle CINE, che esemplificano e sintetizzano gli aspetti significati dei cinematismi di collasso e permettono di effettuare delle verifiche locali. Sulla base dei risultati ottenuti, sono stati progettati diversi interventi strutturali, con lo scopo di migliorare la sicurezza sismica dell’edificio, concepiti con lo scopo di eliminare o limitare le vulnerabilità dell’edificio, con particolare attenzione ai temi della scatolarità dell’edificio e della presenza di connessioni tra strutture verticali e orizzontali. Per verificare l’efficacia di questi interventi sono state ripetute le verifiche del cinematismi locali tramite le tabelle CINE e i risultati sono stati positivi, in quanto l’accelerazione necessaria per l’attivazione dei cinematismi ora risulta essere uguale o superiore a quella caratteristica del sito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il vantaggio di una regolarizzazione multiparametro sta nel fatto che scegliendo un parametro diverso per ogni punto della soluzione si ricostruiscono con più accuratezza i picchi e le regioni piatte. In una prima fase di sperimentazione si è applicato l'algoritmo UPEN ad alcuni problemi test del Regularization Tools e si è osservato che l'algoritmo produce ottimi risultati inquesto ambito. In una seconda fase di sperimentazione si sono confrontati i dati ottenuti da UPEN con quelli derivanti da altri criteri di scelta noti in letteratura. Si è anche condotta un'analisi su dati simulati di risonanza magnetica nucleare e su problemi di deblurring di un'immagine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Acção Humanitária, Cooperação e Desenvolvimento

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente estudo ocupa-se de uma problemática em Didática – as relações entre a investigação científica e o desenvolvimento do campo – e assenta no pressuposto de que essas relações se constroem conjugando o pensamento e a atuação de investigadores, académicos, professores, e formadores de professores, numa ação conjunta conduzida com a participação comprometida das suas instituições profissionais e orientada para o desenvolvimento de todos os intervenientes, da sua área de atividade e, assim, do ensino/aprendizagem e dos alunos. Nesse sentido, o estudo foi concebido no intuito de criar condições propícias ao estreitamento das relações em foco, tendo em vista, simultaneamente, o aprofundamento do conhecimento sobre a problemática. Assumiu, pois, uma finalidade de intervenção no terreno e uma finalidade científica de avaliação da experiência proporcionada por essa intervenção, na expectativa do alargamento da compreensão do objeto de estudo. Na confluência dessas finalidades, a investigação desenvolveu-se como um estudo de caso norteado por duas proposições teóricas: - A colaboração entre académicos e professores, no âmbito de projetos de investigação em Didática, e o comprometimento das instituições profissionais de ambos com essas iniciativas colaborativas poderão favorecer o desenvolvimento do campo, dos atores que nele intervêm e das instituições implicadas. - A formação contínua de professores centrada na investigação em Didática poderá constituir espaço privilegiado para o desenvolvimento dessas dinâmicas de colaboração. No alinhamento destas proposições com a finalidade interventiva do estudo, diferentes atores em Didática foram desafiados a envolver-se numa iniciativa de investigação/formação colaborativa e daí resultou o caso analisado nesta investigação, o projeto ICA/DL (Investiga, Colabora e Atua em Didática de Línguas). Tal projeto, realizado no âmbito de uma parceria formalizada num Protocolo de Colaboração, envolveu uma equipa composta por cinco docentes do Departamento de Didática e Tecnologia Educativa (atual Departamento de Educação) da Universidade de Aveiro e por 4 professores da Escola Secundária Dr. João Carlos Celestino Gomes – Ílhavo e implicou ainda, institucionalmente, a universidade, a escola e o Centro de Formação das Escolas do Concelho de Ílhavo (atualmente, Centro de Formação de Associação de Escolas dos Concelhos de Ílhavo, Vagos e Oliveira do Bairro). As atividades do projeto iniciaram-se no final de 2003, com os primeiros encontros de negociação da parceria, e prolongaram-se até meados de 2007, altura em que a equipa reuniu pela última vez. O programa operacional central desenvolveu-se entre janeiro de 2004 e novembro de 2005 e concretizou-se num percurso de investigação e de formação em colaboração entre académicos e professores, concebido e implementado pela equipa e acreditado pelo Conselho Científico-Pedagógico da Formação Contínua. Tal programa centrou-se no estudo de um tópico em Didática de Línguas (a competência de aprendizagem plurilingue), na realização de intervenções de ensino/aprendizagem, no âmbito do mesmo tópico, junto dos alunos na escola e na avaliação da experiência com base em dados empíricos. A investigação que sobre o caso se conduziu, ao orientar-se, na prossecução da segunda finalidade estabelecida, para a compreensão da influência das dinâmicas colaborativas de investigação/formação sobre o desenvolvimento dos intervenientes (equipa, parceiros institucionais e alunos na escola), é também um estudo de impacte. A condução do processo empírico deu prioridade à produção de uma leitura integrada e complexa, capaz de evidenciar os impactes do projeto, interpretando-os com base na análise dos processos que terão condicionado a sua ocorrência. Nessa medida, a metodologia revestiu-se, intencionalmente, de uma natureza eminentemente interpretativa e qualitativa, socorrendo-se da triangulação de fontes, dados e procedimentos de análise. Contudo, o método integrou também procedimentos quantitativos, em particular, um exercício estatístico que, correlacionando totais de evidências verificadas e totais de evidências possíveis, procurou tornar mais precisa a avaliação da dimensão do impacte alcançado pelo projeto. Ensaiou-se, assim, uma abordagem metodológica em estudos de impacte em Educação, que propõe potenciar a compreensão de casos complexos, conjugando interpretação e objetivação/quantificação. A análise desvendou constrangimentos e obstáculos na vivência dos princípios conceptuais fundadores da noção de investigação/formação colaborativa que sustentou as proposições de partida e que fez emergir o ICA/DL. Tais dificuldades limitaram a assunção de responsabilidades partilhadas na condução processual da experiência, condicionaram dinâmicas supervisivas nem sempre colaborativas e facilitadoras e manifestaram-se em atitudes de compromisso por vezes frágil com o projeto. E terão afetado a concretização das expectativas iniciais de desenvolvimento de todos os participantes, determinando impactes de dimensão globalmente algo dececionante, assimetrias substantivas de influência da experiência levada a cabo no desenvolvimento profissional dos elementos da equipa e no desenvolvimento institucional e repercutindo-se em efeitos pouco expressivos no desenvolvimento dos alunos, no que toca a capacidades ativas de comunicação e de aprendizagem, enquadradas pelo tópico didático trabalhado no âmbito do projeto. Mas revelaram-se também sinais claros de que se avançou no sentido da concretização dos pressupostos colaborativos que sustentaram a iniciativa. Foi possível reunir académicos, professores e instituições educativas em torno da ideia de investigação/formação em colaboração e mobilizá-los como parceiros que se comprometeram na construção de um projeto assente nessa ideia. E percebeu-se que, apesar de pouco expressivo, houve impacte, pois há indicadores de que o projeto contribuiu positivamente para o desenvolvimento dos intervenientes. Na equipa, sinalizaram-se efeitos sobretudo nas práticas de ensino/aprendizagem das professoras e, no caso particular de uma delas, que teve uma participação mais envolvida em atividades de investigação, manifestaram-se impactes substancialmente mais notórios do que nos restantes elementos do grupo e que abrangeram diferentes dimensões da profissionalidade. As académicas, embora menos do que as professoras, também evidenciaram desenvolvimento, dominantemente, nos planos da investigação em Didática de Línguas e da formação de professores. E o ICA/DL parece ter proporcionado também impactes positivos junto das instituições implicadas, especialmente junto da universidade, designadamente, no que toca ao aprofundamento do pensamento sobre a problemática que sustentou a experiência e ao desenvolvimento de projetos de investigação. Por seu turno, os alunos, tendo revelado sinais modestos de reforço das suas capacidades de ação como interlocutores em situações de comunicação plurilingue e como aprendentes de línguas, deram mostras claras de terem tomado consciência de atitudes e de recursos que favorecem o desenvolvimento desses dois papéis. Para além disso, os responsáveis pela parceria, apesar dos obstáculos que limitaram o alcance dos seus propósitos, reafirmaram, na conclusão do projeto, a sua confiança nos princípios colaborativos que os uniram, antecipando a continuidade de uma experiência que entenderam como primeiro passo na concretização desses princípios. No balanço das fragilidades vividas e dos ganhos conquistados pelo ICA/DL, o estudo permite renovar a convicção inicial no poder transformador das práticas de investigação/formação colaborativa em Didática, e assim, na emergência de uma comunidade una de professores e de académicos, movida por um projeto comum de desenvolvimento da Educação. Nessa perspetiva, avançam-se sugestões que abrangem a investigação, o processo de ensino/aprendizagem nas escolas, a formação de professores, as políticas em Didática e a Supervisão.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La corrupción sigue siendo uno de los principales problemas del Estado de Derecho en el siglo XXI. Su incidencia reduce la eficacia de la inversión, aumenta el valor de los bienes y servicios, reduce la competitividad de las empresas, vulnera la confianza de los ciudadanos en el ordenamiento jurídico y sobre todo condena a la miseria a quienes deben ser destinatarios de las políticas públicas.Sin embrago, la lucha que han realizado muchos gobiernos y funcionarios judiciales contra este fenómeno ha modificado sus formas de aparición, pues es cada vez menos frecuente la apropiación directa de los caudales públicos o la entrega de sobornos a los funcionarios, prefiriéndose métodos mucho más sutiles como los sobrecostos, la subcontratación masiva o la constitución de complicadas sociedades, en las cuales tienen participación los funcionarios públicos o sus familias.Este libro constituye un esfuerzo por el estudio jurídico y criminológico de la corrupción y los delitos contra la administración pública en Europa y Latinoamérica y reúne la selección de los temas penales más relevantes de la tesis doctoral del profesor Carlos Guillermo Castro Cuenca, denominada Aproximación a la Corrupción en la contratación pública y defendida en la universidad de Salamanca en febrero de 2008, con lo cual obtuvo la calificación de sobresaliente por unanimidad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The paper provides a close lecture of the arguments and methods of legal construction, employed in the extensive individual opinions written by the Justices of the Brazilian Supreme Court in the case which authorized the same sex civil union. After tracing an outline of the legal problem and his possible solutions, we analyze the individual opinions, showing their methodological syncretism, the use of legal methods and arguments in a contradictory way as well the defciencies in the reasoning. The Justices use legal arguments, but do not meet the requirements of rationality in the decision-making. We have a rhetorical attempt that aims to satisfy the public opinion rather than to ofer a comprehensive and coherent solution according the normative elements of the Brazilian Federal Constitution of 1988.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A regional envelope curve (REC) of flood flows summarises the current bound on our experience of extreme floods in a region. RECs are available for most regions of the world. Recent scientific papers introduced a probabilistic interpretation of these curves and formulated an empirical estimator of the recurrence interval T associated with a REC, which, in principle, enables us to use RECs for design purposes in ungauged basins. The main aim of this work is twofold. First, it extends the REC concept to extreme rainstorm events by introducing the Depth-Duration Envelope Curves (DDEC), which are defined as the regional upper bound on all the record rainfall depths at present for various rainfall duration. Second, it adapts the probabilistic interpretation proposed for RECs to DDECs and it assesses the suitability of these curves for estimating the T-year rainfall event associated with a given duration and large T values. Probabilistic DDECs are complementary to regional frequency analysis of rainstorms and their utilization in combination with a suitable rainfall-runoff model can provide useful indications on the magnitude of extreme floods for gauged and ungauged basins. The study focuses on two different national datasets, the peak over threshold (POT) series of rainfall depths with duration 30 min., 1, 3, 9 and 24 hrs. obtained for 700 Austrian raingauges and the Annual Maximum Series (AMS) of rainfall depths with duration spanning from 5 min. to 24 hrs. collected at 220 raingauges located in northern-central Italy. The estimation of the recurrence interval of DDEC requires the quantification of the equivalent number of independent data which, in turn, is a function of the cross-correlation among sequences. While the quantification and modelling of intersite dependence is a straightforward task for AMS series, it may be cumbersome for POT series. This paper proposes a possible approach to address this problem.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un artificial surfing reef (di seguito ASR) è un’importante opera che ha come obiettivo principe la riproduzione di onde e correnti ideali per eseguire il surf. Com’è noto, questo spettacolare sport si basa sul processo di frangimento delle onde che si propagano a riva. Ciò nonostante gli ASR possono servire come opere di difesa dall’erosione della spiaggia essendo in grado di smorzare sulla loro cresta l’energia ondosa. In questo lavoro di tesi si andrà ad analizzare quali parametri sono necessari per rendere uno paraggio fruibile dai surfers assieme ad una disamina degli effetti che un ASR può ingenerare sull’idrodinamica della costa, oltre a definire compiutamente i criteri di progettazione di un reef artificiale, basandoci su studi pregressi di progettisti e su evidenze sperimentali condotte su modelli fisici. Applicheremo tali criteri progettuali ad un caso pratico sulle coste emiliano - romagnole, nella provincia di Rimini laddove il fiume Conca sfocia in Adriatico. Ci baseremo su una progettazione di massima dell’ASR ed infine, anche sulla base di una sommaria analisi dei costi, valuteremo quale alternativa meglio si addica allo stato della costa e del litorale della regione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I rifiuti come oggetti impegnano tutte le istituzioni umane in una lotta di definizione del posto che occupano e quindi del valore che assumono. In tale dinamica la gestione dei rifiuti diventa un fatto sociale totale che coinvolge tutte le istituzioni umane in una lotta di definizione territorializzata. La storia del movimento ambientalista ci mostra come partendo dal disagio nei confronti dell’oggetto si è passati ad un disagio nei confronti delle idee che lo generano. Modernizzazione ecologica e modernizzazione democratica sembrano andare per un certo periodo d’accordo. Nei casi di conflittualità recente, e nello studio di caso approfondito di un piano provinciale della gestione rifiuti, il carattere anticipatore dell’attivismo ambientalista, sta rendendo sempre più costosi e incerti, investimenti e risultati strategici . Anche i principi delle politiche sono messi in discussione. La sostenibilità è da ricercare in una relativizzazione dei principi di policy e degli strumenti tecnici di valutazione (e.g. LCA) verso una maggiore partecipazione di tutti gli attori. Si propone un modello di governance che parta da un coordinamento amministrativo territoriale sulle reti logistiche, quindi un adeguamento geografico degli ATO, e un loro maggior ruolo nella gestione del processo di coordinamento e pianificazione. Azioni queste che devono a loro volta aprirsi ai flussi (ecologici ed economici) e ai loro attori di riferimento: dalle aziende multiutility agli ambientalisti. Infine è necessario un momento di controllo democratico che può avere una funzione arbitrale nei conflitti tra gli attori o di verifica. La ricerca si muove tra la storia e la filosofia, la ricerca empirica e la riflessione teorica. Sono state utilizzate anche tecniche di indagine attiva, come il focus group e l’intervista.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente lavoro di tesi tratta l'argomento delle aste in modo tecnico, ovvero cerca di descriverne i modelli e le caratteristiche principali, spesso ignorate dagli stessi fruitori. Nel capitolo 1 si introduce brevemente il concetto di asta, descrivendone i principali elementi costitutivi. Si ripercorrono poi le origini di questa procedura ed alcuni suoi utilizzi. Nel capitolo 2 si presentano inizialmente le principali tipologie di aste conosciute e si accenna al processo di valutazione dell'oggetto d'asta. Si introduce poi il concetto di Private Value, analizzandolo per ogni tipo di asta e confrontando queste sotto l'aspetto della rendita. Si enuncia in seguito un principio fondamentale, quale quello dell'equivalenza delle rendite, rilassandone alcuni assunti basilari. Infine si passa al concetto di valori interdipendenti all'interno delle aste, valutandone equilibri, rendite ed efficienza, accennando nel contempo al problema denominato Winner's curse. Nel capitolo 3 si parla dei meccanismi di asta online, ponendo l'attenzione su un loro aspetto importante, ovvero la veridicità, ed analizzandoli attraverso l'analisi del caso peggiore e del caso medio in alcuni esempi costruiti ad-hoc. Nel capitolo 4 si descrivono in particolare le sponsored search auctions, narrandone inizialmente la storia, e successivamente passando all'analisi di equilibri, rendite ed efficienza; si presenta, infine, un modello di tali aste mettendone in rapporto la computabilità con quella dei meccanismi offline conosciuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Definizione del problema: Nonostante il progresso della biotecnologia medica abbia consentito la sopravvivenza del feto, fuori dall’utero materno, ad età gestazionali sempre più basse, la prognosi a breve e a lungo termine di ogni nuovo nato resta spesso incerta e la medicina non è sempre in grado di rimediare completamente e definitivamente ai danni alla salute che spesso contribuisce a causare. Sottoporre tempestivamente i neonati estremamente prematuri alle cure intensive non ne garantisce la sopravvivenza; allo stesso modo, astenervisi non ne garantisce la morte o almeno la morte immediata; in entrambi i casi i danni alla salute (difetti della vista e dell’udito, cecità, sordità, paralisi degli arti, deficit motori, ritardo mentale, disturbi dell’apprendimento e del comportamento) possono essere gravi e permanenti ma non sono prevedibili con certezza per ogni singolo neonato. Il futuro ignoto di ogni nuovo nato, insieme allo sgretolamento di terreni morali condivisi, costringono ad affrontare laceranti dilemmi morali sull’inizio e sul rifiuto, sulla continuazione e sulla sospensione delle cure. Oggetto: Questo lavoro si propone di svolgere un’analisi critica di alcune strategie teoriche e pratiche con le quali, nell’ambito delle cure intensive ai neonati prematuri, la comunità scientifica, i bioeticisti e il diritto tentano di aggirare o di risolvere l’incertezza scientifica e morale. Tali strategie sono accomunate dalla ricerca di criteri morali oggettivi, o almeno intersoggettivi, che consentano ai decisori sostituti di pervenire ad un accordo e di salvaguardare il vero bene del paziente. I criteri esaminati vanno dai dati scientifici riguardanti la prognosi dei prematuri, a “fatti” di natura più strettamente morale come la sofferenza del paziente, il rispetto della libertà di coscienza del medico, l’interesse del neonato a sopravvivere e a vivere bene. Obiettivo: Scopo di questa analisi consiste nel verificare se effettivamente tali strategie riescano a risolvere l’incertezza morale o se invece lascino aperto il dilemma morale delle cure intensive neonatali. In quest’ultimo caso si cercherà di trovare una risposta alla domanda “chi deve decidere per il neonato?” Metodologia e strumenti: Vengono esaminati i più importanti documenti scientifici internazionali riguardanti le raccomandazioni mediche di cura e i pareri della comunità scientifica; gli studi scientifici riguardanti lo stato dell’arte delle conoscenze e degli strumenti terapeutici disponibili ad oggi; i pareri di importanti bioeticisti e gli approcci decisionali più frequentemente proposti ed adoperati; alcuni documenti giuridici internazionali riguardanti la regolamentazione della sperimentazione clinica; alcune pronunce giudiziarie significative riguardanti casi di intervento o astensione dall’intervento medico senza o contro il consenso dei genitori; alcune indagini sulle opinioni dei medici e sulla prassi medica internazionale; le teorie etiche più rilevanti riguardanti i criteri di scelta del legittimo decisore sostituto del neonato e la definizione dei suoi “migliori interessi” da un punto di vista filosofico-morale. Struttura: Nel primo capitolo si ricostruiscono le tappe più importanti della storia delle cure intensive neonatali, con particolare attenzione agli sviluppi dell’assistenza respiratoria negli ultimi decenni. In tal modo vengono messi in luce sia i cambiamenti morali e sociali prodotti dalla meccanizzazione e dalla medicalizzazione dell’assistenza neonatale, sia la continuità della medicina neonatale con il tradizionale paternalismo medico, con i suoi limiti teorici e pratici e con lo sconfinare della pratica terapeutica nella sperimentazione incontrollata. Nel secondo capitolo si sottopongono ad esame critico le prime tre strategie di soluzione dell’incertezza scientifica e morale. La prima consiste nel decidere la “sorte” di un singolo paziente in base ai dati statistici riguardanti la prognosi di tutti i nati in condizioni cliniche analoghe (“approccio statistico”); la seconda, in base alla risposta del singolo paziente alle terapie (“approccio prognostico individualizzato”); la terza, in base all’evoluzione delle condizioni cliniche individuali osservate durante un periodo di trattamento “aggressivo” abbastanza lungo da consentire la raccolta dei dati clinici utili a formulare una prognosi sicura(“approccio del trattamento fino alla certezza”). Viene dedicata una più ampia trattazione alla prima strategia perché l’uso degli studi scientifici per predire la prognosi di ogni nuovo nato accomuna i tre approcci e costituisce la strategia più diffusa ed emblematica di aggiramento dell’incertezza. Essa consiste nella costruzione di un’ “etica basata sull’evidenza”, in analogia alla “medicina basata sull’evidenza”, in quanto ambisce a fondare i doveri morali dei medici e dei genitori solo su fatti verificabili (le prove scientifiche di efficacia delle cure)apparentemente indiscutibili, avalutativi o autocertificativi della moralità delle scelte. Poiché la forza retorica di questa strategia poggia proprio su una (parziale) negazione dell’incertezza dei dati scientifici e sulla presunzione di irrilevanza della pluralità e della complessità dei valori morali nelle decisioni mediche, per metterne in luce i limiti si è scelto di dedicare la maggior parte del secondo capitolo alla discussione dei limiti di validità scientifica degli studi prognostici di cui i medici si avvalgono per predire la prognosi di ogni nuovo nato. Allo stesso scopo, in questo capitolo vengono messe in luce la falsa neutralità morale dei giudizi scientifici di “efficacia”, “prognosi buona”, “prognosi infausta” e di “tollerabilità del rischio” o dei “costi”. Nel terzo capitolo viene affrontata la questione della natura sperimentale delle cure intensive per i neonati prematuri al fine di suggerire un’ulteriore ragione dell’incertezza morale, dell’insostenibilità di obblighi medici di trattamento e della svalutazione dell’istituto del consenso libero e informato dei genitori del neonato. Viene poi documentata l’esistenza di due atteggiamenti opposti manifestati dalla comunità scientifica, dai bioeticisti e dal diritto: da una parte il silenzio sulla natura sperimentale delle terapie e dall’altra l’autocertificazione morale della sperimentazione incontrollata. In seguito si cerca di mostrare come entrambi, sebbene opposti, siano orientati ad occultare l’incertezza e la complessità delle cure ai neonati prematuri, per riaffermare, in tal modo, la precedenza dell’autorità decisionale del medico rispetto a quella dei genitori. Il quarto capitolo, cerca di rispondere alla domanda “chi deve decidere in condizioni di incertezza?”. Viene delineata, perciò, un’altra strategia di risoluzione dell’incertezza: la definizione del miglior interesse (best interest) del neonato, come oggetto, limite e scopo ultimo delle decisioni mediche, qualsiasi esse siano. Viene verificata l’ipotesi che il legittimo decisore ultimo sia colui che conosce meglio di ogni altro i migliori interessi del neonato. Perciò, in questo capitolo vengono esposte e criticate alcune teorie filosofiche sul concetto di “miglior interesse” applicato allo speciale status del neonato. Poiché quest’analisi, rivelando l’inconoscibilità del best interest del neonato, non consente di stabilire con sicurezza chi sia intitolato a prendere la decisione ultima, nell’ultimo capitolo vengono esaminate altre ragioni per le quali i genitori dovrebbero avere l’ultima parola nelle decisioni di fine o di proseguimento della vita. Dopo averle scartate, viene proposta una ragione alternativa che, sebbene non risolutiva, si ritiene abbia il merito di riconoscere e di non mortificare l’irriducibilità dell’incertezza e l’estrema complessità delle scelte morali, senza rischiare, però, la paralisi decisionale, il nichilismo morale e la risoluzione non pacifica dei conflitti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro tratta l’applicazione di un progetto di Certificazione del Sistema di Gestione della Qualità di un’innovativa linea di Business nel settore delle macchine per il confezionamento delle bevande. Questo lavoro è stato preparato durante un periodo di Stage della durata di sei mesi effettuato presso SACMI IMOLA S.C. (Imola, BOLOGNA) a seguito della necessità, riscontrata dal management, di allineare il sistema gestione qualità della nuova linea di business alla normativa ISO 9001:2008, come per le altre linee di business dell’azienda. Tutto questo mediante l’implementazione di un sistema di Business Process Management (BPM) e di tutti i sistemi informatici ad esso collegati. La tesi si struttura in tre parti. Nella prima parte, attraverso un’indagine della letteratura di riferimento, si sono indagati l’evoluzione storica, la struttura attuale e i possibili scenari evolutivi inerenti il concetto di qualità, il sistema gestione qualità e la normativa di riferimento. La seconda parte è dedicata all’approfondimento delle tematiche del BPM, i cui principi hanno guidato l’intervento effettuato. La ricerca è stata condotta allo scopo di evidenziare le radici e gli elementi innovativi che contraddistinguono questo approccio di “management”, descrivere gli aspetti che ne hanno determinato la diffusione e l’evoluzione ed evidenziare, inoltre, il collegamento tra l’approccio per processi che sta alla base di questa filosofia di management e lo stesso approccio previsto nella normativa ISO 9001:2008 e, più specificatamente nella cosiddetta Vision 2000. Tale sezione si conclude con la formalizzazione delle metodologia e degli strumenti effettivamente utilizzati per la gestione del progetto. La terza ed ultima parte del lavoro consiste nella descrizione del caso. Vengono presentate le varie fasi dell’implementazione del progetto, dall’analisi dell’attuale situazione alla costruzione dell’infrastruttura informatica per l’attuazione del BPM ottenuta attraverso l’applicazione dei “criteri di progettazione” trattati dalla letteratura di riferimento, passando per la mappatura dei processi attualmente in vigore e per l’analisi delle performance del processo attuale, misurate attraverso indicatori sviluppati “ad hoc”. Il lavoro è arricchito dall’analisi di un’innovativa metodologia per la creazione di un sistema di gestione integrato delle certificazioni (ISO 9001, ISO 14001, OHSAS 18001) fondato sull’infrastruttura informatica creata.