217 resultados para Analogia


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pós-graduação em Letras - IBILCE

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro riguarda il recupero di una ferrovia dismessa per la realizzazione di una "greenway", ovvero un percorso per la mobilità lenta. Per mobilità lenta si intende mobilità alternativa al traffico veicolare motorizzato e riguarda il muoversi su un territorio a piedi in bicicletta o con altro mezzo di trasporto senza l’ausilio di un motore. La lentezza è una caratteristica che permette una visione nuova dei paesaggi che si attraversano, siano essi naturali o urbani. In alcuni casi si parla anche di circolazione dolce. Questo tipo di circolazione necessita di infrastrutture con caratteristiche adatte a questa funzione, attrezzate in modo da consentire il più alto grado di fruibilità e comodità d’uso. Esse devono servire a muoversi nel territorio in maniera comoda e sicura. Una ferrovia dismessa si presta ad essere riconvertita in un percorso per la mobilità lenta in quanto presenta caratteristiche compatibili con questo nuovo utilizzo. In primo luogo le caratteristiche geometriche come ad esempio le pendenze ridotte, la larghezza e la regolarità del tracciato e la pubblica proprietà. Una ferrovia dismessa rappresenta una opportunità per l’intero territorio attraversato in quanto può rappresentare un importante elemento di connessione fra le popolazioni e le risorse del territorio. La connessione richiama il concetto di rete che è formata da punti e da linee che li collegano fra di loro. Questo concetto è importante per capire come questo percorso possa interagire con le altre risorse territoriali. Ad esempio in alcuni casi una greenway può costituire un corridoio ecologico ed entrare a far parte di una rete ecologica, diventando così una importante risorsa per la diffusione della biodiversità. Nell’affrontare un argomento complesso come la riconversione di una ferrovia dismessa è stata fondamentale l’esperienza fatta sul campo visitando casi di greenway già realizzate in Italia, dalla quale è stato possibile estrapolare una serie di soluzioni da adottare per analogia al caso in esame. E’ stato importante inoltre tutto il lavoro di conoscenza riguardante la storia della ferrovia e le tecniche realizzative dei fabbricati e manufatti, che ha permesso di studiare soluzioni progettuali adatte ad un nuovo utilizzo compatibile alla funzione originaria degli stessi. Le analisi territoriali hanno permesso poi di ricavare importanti informazioni riguardanti il tipo di utenza potenziale, le risorse del territorio attraversate dal tracciato storico, nonché le previsioni future ricavate dagli strumenti urbanistici vigenti. Tutte queste informazioni sono state sintetizzate in una analisi criticità/potenzialità che ha permesso di individuare le azioni progettuali necessarie. Mentre l’analisi territoriale è svolta a tavolino, la successiva analisi del percorso invece è stata portata a termine con un rilievo diretto sul campo al fine di verificare le informazioni raccolte in precedenza. Dividendo il percorso in tratti omogenei è stato possibile assegnare ad ogni tratto un corrispondente tipo di intervento. La verifica di criticità e potenzialità ha permesso poi di programmare corrispondenti azioni progettuali al fine di risolvere le prime ed assecondare le seconde. Le tipologie di intervento individuate sono tre: gli Interventi sul percorso che riguardano la sistemazione del fondo stradale per renderlo adatto ad un utilizzo ciclopedonale e la sistemazione a verde di alcuni tratti urbani; gli interventi di nuova realizzazione che riguardano la realizzazione di nuove infrastrutture per la risoluzione di criticità oppure la realizzazione di padiglioni per assecondare le potenzialità; ed infine gli interventi sul patrimonio storico che riguardano il riutilizzo degli edifici e manufatti della ex ferrovia. Vi è infine un caso applicativo che riassume tutte queste tipologie di intervento: la ex area ferroviaria di Rimini Marina, che è ritenuta un’area dalle alte potenzialità per la sua propensione a diventare punto di partenza dell’intero sistema lineare, ma anche luogo accentratore di servizi per l’intero quartiere che risulta a carattere prevalentemente turistico-residenziale. In questo modo si ritiene possibile fare rivivere la ex ferrovia facendola diventare cioè un insieme di luoghi connessi a servizio della comunità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Definizione del problema: Nonostante il progresso della biotecnologia medica abbia consentito la sopravvivenza del feto, fuori dall’utero materno, ad età gestazionali sempre più basse, la prognosi a breve e a lungo termine di ogni nuovo nato resta spesso incerta e la medicina non è sempre in grado di rimediare completamente e definitivamente ai danni alla salute che spesso contribuisce a causare. Sottoporre tempestivamente i neonati estremamente prematuri alle cure intensive non ne garantisce la sopravvivenza; allo stesso modo, astenervisi non ne garantisce la morte o almeno la morte immediata; in entrambi i casi i danni alla salute (difetti della vista e dell’udito, cecità, sordità, paralisi degli arti, deficit motori, ritardo mentale, disturbi dell’apprendimento e del comportamento) possono essere gravi e permanenti ma non sono prevedibili con certezza per ogni singolo neonato. Il futuro ignoto di ogni nuovo nato, insieme allo sgretolamento di terreni morali condivisi, costringono ad affrontare laceranti dilemmi morali sull’inizio e sul rifiuto, sulla continuazione e sulla sospensione delle cure. Oggetto: Questo lavoro si propone di svolgere un’analisi critica di alcune strategie teoriche e pratiche con le quali, nell’ambito delle cure intensive ai neonati prematuri, la comunità scientifica, i bioeticisti e il diritto tentano di aggirare o di risolvere l’incertezza scientifica e morale. Tali strategie sono accomunate dalla ricerca di criteri morali oggettivi, o almeno intersoggettivi, che consentano ai decisori sostituti di pervenire ad un accordo e di salvaguardare il vero bene del paziente. I criteri esaminati vanno dai dati scientifici riguardanti la prognosi dei prematuri, a “fatti” di natura più strettamente morale come la sofferenza del paziente, il rispetto della libertà di coscienza del medico, l’interesse del neonato a sopravvivere e a vivere bene. Obiettivo: Scopo di questa analisi consiste nel verificare se effettivamente tali strategie riescano a risolvere l’incertezza morale o se invece lascino aperto il dilemma morale delle cure intensive neonatali. In quest’ultimo caso si cercherà di trovare una risposta alla domanda “chi deve decidere per il neonato?” Metodologia e strumenti: Vengono esaminati i più importanti documenti scientifici internazionali riguardanti le raccomandazioni mediche di cura e i pareri della comunità scientifica; gli studi scientifici riguardanti lo stato dell’arte delle conoscenze e degli strumenti terapeutici disponibili ad oggi; i pareri di importanti bioeticisti e gli approcci decisionali più frequentemente proposti ed adoperati; alcuni documenti giuridici internazionali riguardanti la regolamentazione della sperimentazione clinica; alcune pronunce giudiziarie significative riguardanti casi di intervento o astensione dall’intervento medico senza o contro il consenso dei genitori; alcune indagini sulle opinioni dei medici e sulla prassi medica internazionale; le teorie etiche più rilevanti riguardanti i criteri di scelta del legittimo decisore sostituto del neonato e la definizione dei suoi “migliori interessi” da un punto di vista filosofico-morale. Struttura: Nel primo capitolo si ricostruiscono le tappe più importanti della storia delle cure intensive neonatali, con particolare attenzione agli sviluppi dell’assistenza respiratoria negli ultimi decenni. In tal modo vengono messi in luce sia i cambiamenti morali e sociali prodotti dalla meccanizzazione e dalla medicalizzazione dell’assistenza neonatale, sia la continuità della medicina neonatale con il tradizionale paternalismo medico, con i suoi limiti teorici e pratici e con lo sconfinare della pratica terapeutica nella sperimentazione incontrollata. Nel secondo capitolo si sottopongono ad esame critico le prime tre strategie di soluzione dell’incertezza scientifica e morale. La prima consiste nel decidere la “sorte” di un singolo paziente in base ai dati statistici riguardanti la prognosi di tutti i nati in condizioni cliniche analoghe (“approccio statistico”); la seconda, in base alla risposta del singolo paziente alle terapie (“approccio prognostico individualizzato”); la terza, in base all’evoluzione delle condizioni cliniche individuali osservate durante un periodo di trattamento “aggressivo” abbastanza lungo da consentire la raccolta dei dati clinici utili a formulare una prognosi sicura(“approccio del trattamento fino alla certezza”). Viene dedicata una più ampia trattazione alla prima strategia perché l’uso degli studi scientifici per predire la prognosi di ogni nuovo nato accomuna i tre approcci e costituisce la strategia più diffusa ed emblematica di aggiramento dell’incertezza. Essa consiste nella costruzione di un’ “etica basata sull’evidenza”, in analogia alla “medicina basata sull’evidenza”, in quanto ambisce a fondare i doveri morali dei medici e dei genitori solo su fatti verificabili (le prove scientifiche di efficacia delle cure)apparentemente indiscutibili, avalutativi o autocertificativi della moralità delle scelte. Poiché la forza retorica di questa strategia poggia proprio su una (parziale) negazione dell’incertezza dei dati scientifici e sulla presunzione di irrilevanza della pluralità e della complessità dei valori morali nelle decisioni mediche, per metterne in luce i limiti si è scelto di dedicare la maggior parte del secondo capitolo alla discussione dei limiti di validità scientifica degli studi prognostici di cui i medici si avvalgono per predire la prognosi di ogni nuovo nato. Allo stesso scopo, in questo capitolo vengono messe in luce la falsa neutralità morale dei giudizi scientifici di “efficacia”, “prognosi buona”, “prognosi infausta” e di “tollerabilità del rischio” o dei “costi”. Nel terzo capitolo viene affrontata la questione della natura sperimentale delle cure intensive per i neonati prematuri al fine di suggerire un’ulteriore ragione dell’incertezza morale, dell’insostenibilità di obblighi medici di trattamento e della svalutazione dell’istituto del consenso libero e informato dei genitori del neonato. Viene poi documentata l’esistenza di due atteggiamenti opposti manifestati dalla comunità scientifica, dai bioeticisti e dal diritto: da una parte il silenzio sulla natura sperimentale delle terapie e dall’altra l’autocertificazione morale della sperimentazione incontrollata. In seguito si cerca di mostrare come entrambi, sebbene opposti, siano orientati ad occultare l’incertezza e la complessità delle cure ai neonati prematuri, per riaffermare, in tal modo, la precedenza dell’autorità decisionale del medico rispetto a quella dei genitori. Il quarto capitolo, cerca di rispondere alla domanda “chi deve decidere in condizioni di incertezza?”. Viene delineata, perciò, un’altra strategia di risoluzione dell’incertezza: la definizione del miglior interesse (best interest) del neonato, come oggetto, limite e scopo ultimo delle decisioni mediche, qualsiasi esse siano. Viene verificata l’ipotesi che il legittimo decisore ultimo sia colui che conosce meglio di ogni altro i migliori interessi del neonato. Perciò, in questo capitolo vengono esposte e criticate alcune teorie filosofiche sul concetto di “miglior interesse” applicato allo speciale status del neonato. Poiché quest’analisi, rivelando l’inconoscibilità del best interest del neonato, non consente di stabilire con sicurezza chi sia intitolato a prendere la decisione ultima, nell’ultimo capitolo vengono esaminate altre ragioni per le quali i genitori dovrebbero avere l’ultima parola nelle decisioni di fine o di proseguimento della vita. Dopo averle scartate, viene proposta una ragione alternativa che, sebbene non risolutiva, si ritiene abbia il merito di riconoscere e di non mortificare l’irriducibilità dell’incertezza e l’estrema complessità delle scelte morali, senza rischiare, però, la paralisi decisionale, il nichilismo morale e la risoluzione non pacifica dei conflitti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di riqualificazione all'interno del nucleo urbano di Pondicherry, ho come principale obiettivo quello di inserirsi nel territorio seguendo i caratteri locali. Dopo un approfondito studio storico e funzionale, ho scelto di allacciarmi all'elemento che da sempre contraddistingue questa città: il Grand Canal, un canale artificiale che taglia in due parti la città (indiana e francese). A esso si affacciano, nella parte occidentale, una scuola di arti e mestieri e un complesso di abitazioni. La prima ha come obiettivo quella di riunire le più diverse attività artigianali, da offrire come possibilità di crescita economica del paese stesso (sia a livello di offerta lavorativa, che come attrazione turistica). Le abitazioni, su lotti lunghi e stretti in analogia alla tipologia a schiera, sono state studiate secondo i temi culturali caratteristici di questa zona, con variazioni legate alle dimensioni dei lotti e alla diversa composizione delle famiglie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato, è composto di due sezioni in cui sorge una “controversia” che riguarda la categoria delle “scriminanti”: nella prima sezione, la tipologia delle scriminanti viene analizzata all'interno delle cause di non punibilità, lato sensu intese. In particolare, vengono esaminati due profili, su cui dottrina e giurisprudenza hanno offerto catalogazioni difformi: l'art. 68 comma I della Costituzione, sull'insindacabilità del parlamentare per le opinioni espresse ed i voti dati nell'esercizio delle proprie funzioni, e l'art. 598 del codice penale sull'immunità giudiziale delle parti e dei loro patrocinatori per gli scritti presentati ed i discorsi pronunciati in sede giudiziale. Dalle diverse opzioni ermeneutiche prescelte, discenderanno pertanto anche differenti risvolti sul piano applicativo: Il capitolo I, tratta per l'appunto della differente disciplina tra cause di giustificazione, cause di non punibilità in senso stretto, e scusanti. La seconda sezione, attiene alla diversa problematica della scriminante non codificata nell'attività sportiva, laddove per limiti intrinseci alle disposizioni normative, le scriminanti codificate, in particolare gli articoli 50 e 51 del codice penale, si rivelano insufficienti alla descrizione del fenomeno dell'attività sportiva violenta, od eventualmente violenta. Questa seconda sezione, necessitava di un'apposita analisi, contenuta nel capitolo introduttivo alla predetta, sul tema della possibile configurabilità nell'ordinamento italiano dell'analogia in bonam partem (all'interno della quale, rientrano per l'appunto le scriminanti), principale obiezione rispetto all'ammissibilità di scriminante altrimenti definite tacite, non codificate o atipiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con la presente tesi si è inteso studiare le possibilità applicative di una particolare tipologia strutturale dotata di isolamento sismico “di piano”, intendendosi con ciò una struttura in cui l'intero piano terra, tramite l'inserimento di opportuni elementi dissipativi isteretici ed in analogia al consueto isolamento sismico di base, agisce da “strato” di protezione passiva per i piani sovrastanti. A riguardo, fra le possibili soluzioni per realizzare effettivamente tale isolamento "di piano" è stata considerata la disposizione di particolari elementi dissipativi isteretici di controvento detti Crecent-Shaped Braces, caratterizzati da una forma bilatera o curva, tale comunque da presentare un'eccentricità non nulla fra l'asse del controvento stesso e la linea congiungente gli estremi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi proponiamo una rivisitazione del classico criterio di Jeans per l'instabilità gravitazionale di una nube di gas autogravitante, tenendo conto anche degli effetti viscosi e della presenza di una forza di Coriolis. Si dimostra che l'aggiunta di tali presenze, pur non alterando la soglia critica di Jeans, è generalmente stabilizzante. Infine si evidenzia un'interessante analogia, per modellamento matematico, tecniche e terminologie, fra il collasso gravitazionale e quello chemiotattico

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro si rivolge all’analisi del ruolo delle forme metaforiche nella divulgazione della fisica contemporanea. Il focus è sugli aspetti cognitivi: come possiamo spiegare concetti fisici formalmente complessi ad un audience di non-esperti senza ‘snaturarne’ i significati disciplinari (comunicazione di ‘buona fisica’)? L’attenzione è sulla natura stessa della spiegazione e il problema riguarda la valutazione dell’efficacia della spiegazione scientifica a non-professionisti. Per affrontare tale questione, ci siamo orientati alla ricerca di strumenti formali che potessero supportarci nell’analisi linguistica dei testi. La nostra attenzione si è rivolta al possibile ruolo svolto dalle forme metaforiche nella costruzione di significati disciplinarmente validi. Si fa in particolare riferimento al ruolo svolto dalla metafora nella comprensione di nuovi significati a partire da quelli noti, aspetto fondamentale nel caso dei fenomeni di fisica contemporanea che sono lontani dalla sfera percettiva ordinaria. In particolare, è apparsa particolarmente promettente come strumento di analisi la prospettiva della teoria della metafora concettuale. Abbiamo allora affrontato il problema di ricerca analizzando diverse forme metaforiche di particolare rilievo prese da testi di divulgazione di fisica contemporanea. Nella tesi viene in particolare discussa l’analisi di un case-study dal punto di vista della metafora concettuale: una analogia di Schrödinger per la particella elementare. I risultati dell’analisi suggeriscono che la metafora concettuale possa rappresentare uno strumento promettente sia per la valutazione della qualità delle forme analogiche e metaforiche utilizzate nella spiegazione di argomenti di fisica contemporanea che per la creazione di nuove e più efficaci metafore. Inoltre questa prospettiva di analisi sembra fornirci uno strumento per caratterizzare il concetto stesso di ‘buona fisica’. Riteniamo infine che possano emergere altri risultati di ricerca interessanti approfondendo l’approccio interdisciplinare tra la linguistica e la fisica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi riguarda la formula di Eulero per i poliedri: F - S + V = 2 dove F indica il numero di facce, S il numero di spigoli e V quello dei vertici di un poliedro. Nel primo capitolo tratteremo i risultati ottenuti da Cartesio: egli fu il primo a considerare non solo le caratteristiche geometriche ma anche metriche di un solido. Partendo dall'analogia con le figure piane, riuscì a ricavare importanti relazioni nei solidi convessi, riguardanti il numero e la misura degli angoli piani, degli angoli solidi e delle facce. Non arrivò mai alla formulazione conosciuta oggi ma ne intuì le caratteristiche topologiche, che però non dimostrò mai. Nel secondo capitolo invece ci occuperemo di ciò che scoprì Eulero. Il manoscritto contenente i risultati di Cartesio era scomparso e quindi questi non erano più conosciuti dai matematici; Eulero, in accordo con quanto avviene per i poligoni, desiderava ottenere un metodo di classificazione per i poliedri e si mise a studiare le loro proprietà. Oltre alla sua formula, in un primo articolo ricavò importanti relazioni, e in un secondo lavoro ne propose una dimostrazione. Riportiamo in breve anche un confronto tra il lavoro di Cartesio e quello di Eulero. Il terzo capitolo invece riguarda il metodo e il rigore nella formulazione di teoremi e dimostrazioni: I. Lakatos ne fa un esame critico nel libro "Dimostrazioni e Confutazioni - la logica della scoperta matematica", simulando una lezione dove a tema compaiono la Formula di Eulero e le sue dimostrazioni. Noi cercheremo di analizzare questo suo lavoro. Su questi tre autori e i loro lavori riportiamo alcune considerazioni biografiche e storiche che possono offrire interessanti spunti didattici: infatti nel quarto e ultimo capitolo ci occuperemo di alcune considerazioni didattiche a proposito della Formula. La struttura sarà quella di un'ipotetica lezione a studenti di Scuola Media Inferiore e utilizzeremo i risultati ottenuti nei precedenti capitoli e una personale esperienza di tirocinio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi si occupa dello studio dei buchi neri e delle loro proprietà termodinamiche da un punto di vista teorico. Nella prima parte si affronta una analisi teorico-matematica che mostra la soluzione dell’equazione di Einstein in relatività generale per un problema a simmetria sferica. Da questa soluzione si osserva la possibile presenza nell’universo di oggetti ai quali nemmeno alla luce è data la possibilità di fuggire, chiamati buchi neri. Ad ogni buco nero è associato un orizzonte degli eventi che si comporta come una membrana a senso unico: materia e luce possono entrare ma niente può uscire. E` studiata inoltre la possibile formazione di questi oggetti, mostrando che se una stella supera un certo valore critico di massa, durante la fase finale della sua evoluzione avverrà un collasso gravitazionale che nessuna forza conosciuta sarà in grado di fermare, portando alla formazione di un buco nero. Nella seconda parte si studiano le leggi meccaniche dei buchi neri. Queste leggi descrivono l’evoluzione degli stessi attraverso parametri come l’area dell’orizzonte degli eventi, la massa e la gravità di superficie. Si delinea quindi una analogia formale tra queste leggi meccaniche e le quattro leggi della termodinamica, con l’area dell’orizzonte degli eventi che si comporta come l’entropia e la gravità di superficie come la temperatura. Nella terza parte, attraverso l’utilizzo della meccanica quantistica, si mostra che l’analogia non è solo formale. Ad un buco nero è associata l’emissione di uno spettro di radiazione che corrisponde proprio a quello di un corpo nero che ha una temperatura proporzionale alla gravità di superficie. Si osserva inoltre che l’area dell’orizzonte degli eventi può essere interpretata come una misura della informazione contenuta nel buco nero e di conseguenza della sua entropia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’industria enologica oggigiorno propone numerosi modi per sigillare le bottiglie in alternativa ai tappi di sughero: tappi sintetici, tappi a vite, tappi a corona. Tuttavia si conosce la preferenza del consumatore medio per il sughero. I motivi sono molteplici: il sughero restituisce un'immagine di qualità del vino, esprime la tradizione ed è un materiale vivo e naturale, così come il vino. La naturalità del sughero però comporta dei rischi. Ad esempio si stima in 10 miliardi di dollari a livello mondiale la perdita economica dovuta al "sentore di tappo" o "cork taint". Recenti ricerche attribuiscono la responsabilità di tale difetto a composti chimici che migrano dal sughero al vino. Innovazione e tradizione si sono incontrate nell'ideazione della "tecnologia a membrana" o "membrane technology". Essa consiste nell'isolare le teste dei tappi con delle pellicole multistrato per non far diffondere nel vino alcun tipo di agente contaminante. In questo studio si espone in dettaglio un metodo per misurare l'adesione di film multistrato polimerici – strato esterno in polietilene – su tappi di sughero monopezzo. I tappi già rivestiti sono stati forniti da un'azienda del settore senza alcuna specifica di fabbricazione. In particolare la fase di trazione è stata ideata in analogia alla prova meccanica nota come pull-off test, usata nell'ambito dell'ingegneria edile. La bontà dell'adesione è indagata dal punto di vista della fisica dei materiali. Per le misurazioni si è utilizzato il Dynamic Mechanical Analyser (DMA), modello Q800, che si trova presso il laboratorio CIRI-MAM ospitato dal Dipartimento di Fisica e Astronomia di Bologna.