945 resultados para FEM, Fatica, Fretting, Fattore di concentrazione degli sforzi, Kt, Macchina di Moore


Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study aims to show the scope of environment impact due to tyre treatments. The study scrutinises a firm’s case, Marangoni S.p.A, which is one of the first pneumatics treatments firm with emphasis on disposed and recostructed exhausted pneumatics. In particular those pneumatic’s treatments are two: reconstruction (30% of the whole amount of the pneumatics given) and incineration (70% of the whole amount of the pneumatics given). With LCA methods (EcoIndicator 99, EPS 2000, EDIP 97, IMPACT 2002) it has been possible to value the impact on the environments in terms of human health, ecosystem quality and resources. In addition, comparison with the principal process and subsidiary processes within the main one has brought to highlight how some results could be understood in different way. This interpretation should bring politics and socials network to take decision in order to save our planet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gli investimenti diretti esteri (IDE) giocano un ruolo importante nella crescita economica e nello sviluppo territoriale. Con il notevole aumento dei flussi IDE nel settore agroalimentare a livello mondiale l’attenzione si è concentrata sul dibattito relativo alle determinanti che spingono alla scelta di un territorio piuttosto che un altro. Non esiste ancora un lavoro definitivo ed univoco sulle determinanti degli IDE. Alcune delle più frequenti analisi sui fattori che influenzano gli IDE includono: l’entità del mercato, il costo del lavoro, i tassi di interesse, le barriere protezionistiche, tassi di cambio, predisposizione all’export, struttura del mercato, distanze geografiche, stabilità politica e affinità culturale. Questo lavoro si propone di analizzare le determinanti nel settore agroalimentare italiano sia teoricamente che empiricamente. A questo scopo è stata applica come base teorica il paradigma OLI di Dunning e i principi legati agli investimenti orizzontali al settore agroalimentare regionale italiano. Sono state esaminate le determinanti degli investimenti diretti inward in questo settore. Le risultanti suggeriscono una relazione positiva tra la presenza di attività di servizi e la presenza di IDE nelle diverse Regioni. In un Paese ad economia avanzata come l’Italia, strategie territoriali e di impresa basate sui costi e sul mercato non sono caratterizzanti per attrarre multinazionali straniere, mentre la dotazione di servizi e infrastrutture rappresentano un nuovo obiettivo su cui le Regioni devono puntare per aprire i territori alle sfide della globalizzazione. Questa ricerca unisce analisi statistica ed econometria e studio bibliografico per approfondire e comprendere la materia in oggetto e fornire nuovi elementi e spunti su cui discutere.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Produttività ed efficienza sono termini comunemente utilizzati per caratterizzare l’abilità di un’impresa nell’utilizzazione delle risorse, sia in ambito privato che pubblico. Entrambi i concetti sono legati da una teoria della produzione che diventa essenziale per la determinazione dei criteri base con i quali confrontare i risultati dell’attività produttiva e i fattori impiegati per ottenerli. D’altronde, le imprese scelgono di produrre e di investire sulla base delle proprie prospettive di mercato e di costi dei fattori. Quest’ultimi possono essere influenzati dalle politiche dello Stato che fornisce incentivi e sussidi allo scopo di modificare le decisioni riguardanti l’allocazione e la crescita delle imprese. In questo caso le stesse imprese possono preferire di non collocarsi nell’equilibrio produttivo ottimo, massimizzando produttività ed efficienza, per poter invece utilizzare tali incentivi. In questo caso gli stessi incentivi potrebbero distorcere quindi l’allocazione delle risorse delle imprese che sono agevolate. L’obiettivo di questo lavoro è quello di valutare attraverso metodologie parametriche e non parametriche se incentivi erogati dalla L. 488/92, la principale politica regionale in Italia nelle regioni meridionali del paese nel periodo 1995-2004, hanno avuto o meno effetti sulla produttività totale dei fattori delle imprese agevolate. Si è condotta una ricognizione rispetto ai principali lavori proposti in letteratura riguardanti la TFP e l’aiuto alle imprese attraverso incentivi al capitale e (in parte) dell’efficienza. La stima della produttività totale dei fattori richiede di specificare una funzione di produzione ponendo l’attenzione su modelli di tipo parametrico che prevedono, quindi, la specificazione di una determinata forma funzionale relativa a variabili concernenti i fattori di produzione. Da questa si è ricavata la Total Factor Productivity utilizzata nell’analisi empirica che è la misura su cui viene valutata l’efficienza produttiva delle imprese. Il campione di aziende è dato dal merge tra i dati della L.488 e i dati di bilancio della banca dati AIDA. Si è provveduto alla stima del modello e si sono approfonditi diversi modelli per la stima della TFP; infine vengono descritti metodi non parametrici (tecniche di matching basate sul propensity score) e metodi parametrici (Diff-In-Diffs) per la valutazione dell’impatto dei sussidi al capitale. Si descrive l’analisi empirica condotta. Nella prima parte sono stati illustrati i passaggi cruciali e i risultati ottenuti a partire dalla elaborazione del dataset. Nella seconda parte, invece, si è descritta la stima del modello per la TFP e confrontate metodologie parametriche e non parametriche per valutare se la politica ha influenzato o meno il livello di TFP delle imprese agevolate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La definizione di “benessere animale” e le modalità di determinazione di tale parametro sono ancora ampiamente dibattute. C’è, però, una generale concordanza sul fatto che una condizione di malessere dia origine a variazioni fisiologiche e comportamentali che possono essere rilevate e misurate. Tra i parametri endocrini, il più studiato è, senza dubbio, il cortisolo, in quanto connesso con l’attivazione dell’asse ipotalamico-pituitario-surrenale in condizioni di stress e quindi ritenuto indicatore ideale di benessere, benché debba essere utilizzato con cautela in quanto un aumento dei livelli di questo ormone non si verifica con ogni tipo di stressor. Inoltre, si deve considerare che la raccolta del campione per effettuare le analisi, spesso implica il confinamento ed il contenimento degli animali e può essere, quindi, essa stessa un fattore stressante andando ad alterare i risultati. Alla luce delle suddette conoscenze gli obiettivi scientifici di questa ricerca, condotta sul gatto e sul cane, sono stati innanzitutto validare il metodo di dosaggio di cortisolo dal pelo e stabilire se tale dosaggio può rappresentare un indicatore, non invasivo, di benessere dell’animale (indice di “stress cronico”). In seguito, abbiamo voluto individuare i fattori di stress psico-sociale in gatti che vivono in gattile, in condizioni di alta densità, analizzando i correlati comportamentali ed ormonali dello stress e del benessere in questa condizione socio-ecologica, ricercando, in particolare, l’evidenza ormonale di uno stato di stress prolungato e la messa in atto di strategie comportamentali di contenimento dello stesso e il ruolo della marcatura visivo-feromonale, inoltre abbiamo effettuato un confronto tra oasi feline di diversa estensione spaziale per valutare come varia lo stress in rapporto allo spazio disponibile. Invece, nel cane abbiamo voluto evidenziare eventuali differenze dei livelli ormonali tra cani di proprietà e cani di canili, tra cani ospitati in diversi canili e tra cani che vivono in diverse realtà familiari; abbiamo voluto valutare gli effetti di alcuni arricchimenti sui cani di canile ed, infine, abbiamo analizzato cani sottoposti a specifici programmi si addestramento. Il primo importante ed originale risultato raggiunto, che risponde al primo obiettivo della ricerca, è stato la validazione del dosaggio radioimmunologico di cortisolo in campioni di pelo. Questo risultato, a nostro avviso, apre una nuova finestra sul campo della diagnostica endocrinologica metabolica. Attualmente, infatti, il monitoraggio ormonale viene effettuato su campioni ematici la cui raccolta prevede un elevato stress (stress da prelievo) per l’animale data l'invasività dell'operazione che modifica l’attività di ipotalamo-ipofisi-surrene e, dunque, provoca repentine alterazioni delle concentrazioni ormonali. Questa metodica offre, quindi, il vantaggio dell’estrema semplicità di raccolta del campione e, in più, il bassissimo costo del materiale utilizzato. Dalle ricerche condotte sui gatti di gattile sono scaturite preziose indicazioni per future indagini sullo stress e sul comportamento sociale felino. I risultati dell’analisi congiunta del comportamento e delle concentrazioni ormonali hanno evidenziato che la disponibilità di postazioni di marcatura visivo-feromonale ha un effetto positivo sia sugli indicatori comportamentali, sia su quelli ormonali di stress. I risultati dell’analisi delle concentrazioni di cortisolo, derivanti dal confronto tra sette oasi feline di diversa estensione spaziale hanno permesso di evidenziare un aumento dei livelli dell’ormone inversamente proporzionale allo spazio disponibile. Lo spazio disponibile, però, non è l’unico fattore da prendere in considerazione al fine di assicurare il benessere dell’animale infatti, nelle colonie che presentavano instabilità sociale e variabilità territoriale il cortisolo aveva valori elevati nonostante le notevoli disponibilità di spazio. Infine, si è potuto costatare come anche lo stare appartati, aumenti proporzionalmente con l’aumentare dello spazio. Questo comportamento risulta essere molto importante in quanto mitiga lo stress ed è da prendere in considerazione nell’allestimento di colonie feline. Infatti, nelle colonie di dimensioni ridotte dove lo stress è già alto, l’impossibilità dei soggetti di appartarsi può contribuire a peggiorare la situazione; ecco perché si dovrebbero creare luoghi artificiali per fornire ai gatti la possibilità di appartarsi, magari sfruttando gli spazi sopraelevati (tetti, alberi, ecc.). Per quanto riguarda il confronto tra cani di proprietà e cani di canile non sono state evidenziate differenze significative nei livelli di cortisolo nel pelo mentre abbiamo rilevato che quest’ultimi sono influenzati dalla disponibilità di spazio: infatti sia i cani di proprietà che vivevano in giardino, sia i cani dei canili che praticavano lo sgambamento presentavano livelli di cortisolo nel pelo più bassi rispetto, rispettivamente, ai cani di proprietà che vivevano in appartamento o appartamento/giardino e a quelli di canile che non praticavano lo sgambamento. L’arricchimento ambientale fornito ai cani di canile ha esercitato un’influenza positiva riducendo i livelli di cortisolo e migliorando la docilità dei soggetti, favorendone un’eventuale adozione. Si è inoltre messo in luce che i programmi di addestramento, eseguiti con tecniche “gentili”, non comportano situazioni stressanti per l’animale e aiutano i cani ad esprimere doti di equilibrio che rimarrebbero altrimenti celate dagli aspetti più istintivi del carattere. D’altra parte, l’impegno agonistico prima di una competizione e il livello di addestramento raggiunto dai cani, influenzano le concentrazioni di cortisolo a riposo e durante l’esercizio fisico. Questi risultati possono sicuramente dare utili suggerimenti per la gestione e la cura di gatti e cani al fine di migliorarne le condizioni di benessere.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’infezione da virus dell’ epatite E (HEV) nei suini e nell’uomo è stata segnalata in diversi Paesi. Nei suini, il virus causa infezioni asintomatiche, mentre nell’uomo è responsabile di epidemie di epatite ad andamento acuto nei Paesi a clima tropicale o subtropicale con condizioni igieniche scadenti, di casi sporadici in quelli sviluppati. HEV è stato isolato anche in diversi animali e l’analisi nucleotidica degli isolati virali di origine animale ha mostrato un elevato grado di omologia con i ceppi di HEV umani isolati nelle stesse aree geografiche, avvalorando l’ipotesi che l'infezione da HEV sia una zoonosi. In America del Sud HEV suino è stato isolato per la prima volta in suini argentini nel 2006, mentre solo dal 1998 esistono dati sull’ infezione da HEV nell’uomo in Bolivia. In questa indagine è stato eseguito uno studio di sieroprevalenza in due comunità rurali boliviane e i risultati sono stati confrontati con quelli dello studio di sieroprevalenza sopra menzionato condotto in altre zone rurali della Bolivia. Inoltre, mediante Nested RT-PCR, è stata verificata la presenza di HEV nella popolazione umana e suina. La sieroprevalenza per anticorpi IgG anti-HEV è risultata pari al 6,2%, molto simile a quella evidenziata nello studio precedente. La prevalenza maggiore (24%) si è osservata nei soggetti di età compresa tra 41 e 50 anni, confermando che l’ infezione da HEV è maggiore fra i giovani-adulti. La ricerca di anticorpi anti HEV di classe IgM eseguita su 52 sieri ha fornito 4 risultati positivi. Il genoma virale è stato identificato in uno dei 22 pool di feci umane e l'esame virologico di 30 campioni individuali fecali e 7 individuali di siero ha fornito rispettivamente risultati positivi in 4/30 e 1/7. La Nested RT-PCR eseguita sui 22 pool di feci suine ha dato esito positivo in 7 pool. L’analisi delle sequenze genomiche di tutti gli amplificati ha consentito di stabilire che gli isolati umani appartenevano allo stesso genotipo III di quelli suini e presentavano con questi una elevata omologia aminoacidica (92%).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

From September 2005 to December 2006, in order to define the prevalence of Helicobacter pullorum in broiler chickens, laying hens and turkey, a total of 365 caecum contents of animals reared in 76 different farms were collected at the slaughterhouse. A caecum content of a ostrich was also sampled. In addition, with the aim of investigating the occurrence of H. pullorum in humans, 151 faeces were collected at the Sant’Orsola-Malpighi University Hospital of Bologna from patients suffering of gastroenteritis. A modified Steele–McDermott membrane filter method was used. Gram-negative curved rod bacteria were preliminary identified as H. pullorum by a PCR assay based on 16S rRNA, then subjected to a RFLP-PCR assay to distinguish between H. pullorum and H. canadensis. One isolate from each farm was randomly selected for phenotypic characterization by biochemical methods and 1D SDSPAGE analysis of whole cell proteins profiles. Minimum Inhibitory Concentration (MIC) for seven different antibiotics were also determined by agar dilution method. Moreover, to examine the intraspecific genomic variability, two strains isolated from 17 different farms were submitted to genotyping by Pulse-Field Gel Electrophoresis (PFGE). In order to assess the molecular basis of fluorquinolone resistance in H. pullorum, gyrA of H. pullorum CIP 104787T was sequenced and nucleotide sequences of the Quinolone Resistance Determining Region (QRDR) of a total of 18 poultry isolates, with different MIC values for ciprofloxacin and nalidixic acid, were compared. According to the PCR and PCR-RFLP results, 306 out of 366 animals examined were positive for H. pullorum (83,6%) and 96,1% of farms resulted infected. All positive samples showed a high number of colonies (>50) phenotipically consistent with H. pullorum on the first isolation media, which suggests that this microrganism, when present, colonizes the poultry caecum at an elevate load. No human sample resulted positive for H. pullorum. The 1D SDS-PAGE whole protein profile analysis showed high similarity among the 74 isolates tested and with the type strain H. pullorum CIP 104787T. Regarding the MIC values, a monomodal distribution was found for ampicillin, chloramphenicol, gentamicin and nalidixic acid, whereas a bimodal trend was noticed for erythromycin, ciprofloxacin and tetracycline (indicating an acquired resistance for these antibiotics). Applying the breakpoints indicated by the CSLI, we may assume that all the H. pullorum tested are sensitive only to gentamicin. The intraspecific genomic variability observed in this study confirm that this species don’t have a clonal population structure, as motioned by other autors. The 2490 bp gyrA gene of H. pullorum CIP104787T with an Open Reading Frame (ORF) encoding a polypeptide of 829 amino acids was for the first time sequenced and characterized. All ciprofloxacin resistant poultry isolates showed ACA®ATA (Thr®Ile) substitution at codon 84 of gyrA corresponding to codons of gyrA 86, 87 and 83 of the Campylobacter jejuni, H. pylori and Escherichia coli, respectively. This substitution was functionally confirmed to be associated with the ciprofloxacin resistant phenotype of poultry isolates. This is the first report of isolation of H. pullorum in turkey and in ostrich, indicating that poultry species are the reservoir of this potential zoonotic microorganisms. In order to understand the potential role as food-borne human pathogen of H. pullorum, further studies must be carried on.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The study is aimed to calculate an innovative numerical index for bit performance evaluation called Bit Index (BI), applied on a new type of bit database named Formation Drillability Catalogue (FDC). A dedicated research programme (developed by Eni E&P and the University of Bologna) studied a drilling model for bit performance evaluation named BI, derived from data recorded while drilling (bit records, master log, wireline log, etc.) and dull bit evaluation. This index is calculated with data collected inside the FDC, a novel classification of Italian formations aimed to the geotechnical and geomechanical characterization and subdivisions of the formations, called Minimum Interval (MI). FDC was conceived and prepared at Eni E&P Div., and contains a large number of significant drilling parameters. Five wells have been identified inside the FDC and have been tested for bit performance evaluation. The values of BI are calculated for each bit run and are compared with the values of the cost per metre. The case study analyzes bits of the same type, diameters and run in the same formation. The BI methodology implemented on MI classification of FDC can improve consistently the bit performances evaluation, and it helps to identify the best performer bits. Moreover, FDC turned out to be functional to BI, since it discloses and organizes formation details that are not easily detectable or usable from bit records or master logs, allowing for targeted bit performance evaluations. At this stage of development, the BI methodology proved to be economic and reliable. The quality of bit performance analysis obtained with BI seems also more effective than the traditional “quick look” analysis, performed on bit records, or on the pure cost per metre evaluation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questo studio è descrivere nel dettaglio la procedura di Valutazione Ambientale Strategica (VAS) relativa ai Piani Energetici Provinciali (PEP) al fine di delinearne un metodo efficace di valutazione, a partire dallo studio del caso della Provincia di Ravenna. In seguito alla mancanza di Linee Guida sulla VAS, si è ritenuta utile un´analisi comparativa tra metodologie e strumenti, e gli obiettivi specifici e generali che andrebbero rispettati in ogni VAS di un PEP. Lo studio si basa su confronti paralleli tra quattro casi di VAS di Piani Energetici Provinciali al fine di elaborare un modello di valutazione delle VAS, semplice e diretto, basato su contenuti teorici e metodologici provenienti da una selezione di studi e documenti nazionali e internazionali, di cui si è tenuto conto e da cui si sono estrapolate le migliori "Buone Pratiche" per la VAS. L´analisi seguente è stata effettuata attraverso matrici qualitative in cui, per ciascuna connessione tra metodologia e "obiettivo VAS" si è espresso un giudizio che cerca di tenere conto, quando possibile, dei criteri e dei principi generali di sostenibilità dettati dalle maggiori autorità e associazioni internazionali e nazionali di valutazione ambientale. Il confronto tra i quattro casi, ha evidenziato dei punti di debolezza nell´applicazione della Direttiva VAS. Questo studio inoltre, ha tra i suoi obiettivi, quello ambizioso di delineare un metodo efficace di valutazione strategica dei piani energetici provinciali, a partire dallo studio del caso della Provincia di Ravenna. Per questi obiettivi, si è deciso di impostare un programma di lavoro basato sui sistemi informativi geografici, che ha permesso di individuare le aree con potenziale di sviluppo energetico della risorsa solare. Nello specifico è stato possibile calcolare quanta “superficie utile”, presente nelle aree industriali e commerciali della Provincia, potrebbe essere sfruttata installandovi pannelli fotovoltaici. Si è riusciti con questa metodologia a fornire una stima più dettagliata delle reali potenzialità della risorsa solare in Provincia di Ravenna, individuando nel dettaglio territoriale le rispettive quote percentuali che potrebbero essere installate, per raggiungere gli obiettivi di sostenibilità del piano. Il percorso iniziato con questa tesi consente di riflettere sulla necessità di approfondire il tema del rapporto tra valutazione ambientale qualitativa di uno strumento di pianificazione come la VAS, e la stima quantitativa sia della sostenibilità che del danno ambientale legato agli impatti negativi che questo strumento dovrebbe rilevare. Gli sviluppi futuri cui la tesi pone le basi sono l'implementazione di strumenti quantitativi di analisi delle potenzialità energetiche e di valutazione degli scenari. Questi strumenti sono necessari a definire i modelli ambientali per il supporto alle decisioni in campo energetico.