911 resultados para Teoria del funcional de densitat
Resumo:
La tesis trata sobre la justificación del mandato de impedir determinados delitos contenido en el artículo 450.1 del CP español. Para ello se utiliza una perspectiva de filosofía política. Se propone una justificación general en términos de justicia política para el derecho penal y una teoría especial para la justificación e interpretación del mandato de impedir determinados delitos: la teoría del rescate.
Resumo:
Nesta tese, investigamos detalhadamente as propriedades de transporte eletrônico, conformacional e de simetria de estruturas de Nanotubos de Carbono de Parede Simples zigzag (9,0), NCPS zz9, acopladas a anéis fenilas (2, 3, 4 e 5) sob influência de campo elétrico externo (voltagem) via método híbrido da Teoria do Funcional Densidade (DFT) do tipo B3LYP 6-311G(d,p) combinado com Função de Green de Não Equilíbrio (FGNE) e Teoria de Grupo. Verificamos uma boa relação entre: 1- o índice quiral () por Teoria de Grupo e a lei do cos2 (, ângulo diedral) por geometria sob a influência de campo elétrico externo, pois só depende das posições atômicas (), das conformações, e também está fortemente correlacionada a corrente que passa através do sistema; 2- a condutância normalizada (G/Go) é proporcional a cos2 na região do gap (EHOMO-ELUMO), isto é, nas regiões onde ocorre a ressonância e a resistência diferencial negativa (RDN); 3- o gráfico Fowler-Northeim (FN) exibe mínimo de voltagem (Vmin) que ocorre sempre que a cauda de um pico de transmissão ressonante entra na janela de voltagem, isto é, quando nessas estruturas ocorre uma RDN, pois o número de RDN na curva I-V está associado ao número de Vmin no gráfico FN e pode ser explicado pelo modelo de transporte molecular coerente; 4- a altura da barreira (EF - EHOMO e ELUMO - EF) como função do comprimento molecular; 5- Vmin como função da altura da barreira (EF - EHOMO) e do comprimento molecular. Assim, 1 implica que a conformação molecular desempenha um papel preponderante na determinação das propriedades de transporte da junção; 2 sugere que a lei do cos2 tem uma aplicabilidade mais geral independentemente da natureza dos eletrodos; 3 serve como um instrumento espectroscópico e também para identificar a molécula na junção; 4 e 5 a medida que o comprimento molecular atinge um certo valor (1,3nm) o Vmin permanece praticamente inalterado. Os resultados mostraram que as propriedades estruturais sofrem alterações significativas com o aumento da voltagem que estão em boa concordância com os valores encontrados na literatura. O comportamento das curvas IxV e G/GoxV perdem sua dependência linear para dar origem a um comportamento não linear com aparecimento de RDN. Tal ponto revela a modificação estrutural sofrida pelo sistema. A curva IxV confirmou as afirmações que foram feitas através da análise estrutural para o sistema considerado e mostrou como se dá o fluxo de carga nos sistemas analisados.
Resumo:
Neste trabalho reportamos a investigação teórica da solvatação dos isômeros do tris- (8-idroxiquinolinolato) de alumínio III – Alq3, as propriedades eletroluminescentes na solvatação de Alq3 em líquidos orgânicos como metanol, etanol, dimetilformamida (DMF) e acetonitrila, a fim de se entender a dependência na variação de ambientes do sistema, aperfeiçoando o funcionamento de filmes transportadores em dispositivos eletroluminescentes do tipo OLED (Organic Light-Emitting Diodes) e por fim investigamos o mecanismo do transporte eletrônico no Alq3 aplicando uma baixa corrente elétrica na molécula e evidenciando as curvas corrente-voltagem característica do dispositivo. A simulação consiste na aplicação do método sequencial Monte Carlo / Mecânica quântica (S-MC/MQ), que parte de um tratamento inicial estocástico para separação das estruturas mais prováveis de menor energia e posteriormente com um tratamento quântico para plotar os espectros eletrônicos das camadas de solvatação separadas através do método ZINDOS/S. Nas propriedades elétricas do transporte utilizamos o método da função de Green de não equilíbrio acoplado a teoria do funcional densidade (DFT) inferindo que as ramificações mais externas correspondentes aos anéis no Alq3 seriam terminais para o translado eletrônico. Nossos resultados mostraram que a média dos espectros de absorção para solvatação do Alq3 em soluções sofre um desvio mínimo com a mudança de ambiente, estando em ótimo acordo com os resultados experimentais da literatura; e as curvas I-V confirmaram o comportamento diodo do dispositivo, corroborando com os sentidos mais pertinentes quanto aos terminais no Alq3 para se ter um transporte eletrônico satisfatório.
Resumo:
Utilizou-se o método seqüencial Monte Carlo / Mecânica Quântica para obterem-se os desvios de solvatocromismo e os momentos de dipolo dos sistemas de moléculas orgânicas: Uracil em meio aquoso, -Caroteno em Ácido Oléico, Ácido Ricinoléico em metanol e em Etanol e Ácido Oléico em metanol e em Etanol. As otimizações das geometrias e as distribuições de cargas foram obtidas através da Teoria do Funcional Densidade com o funcional B3LYP e os conjuntos de funções de base 6-31G(d) para todas as moléculas exceto para a água e Uracil, as quais, foram utilizadas o conjunto de funções de base 6-311++G(d,p). No tratamento clássico, Monte Carlo, aplicou-se o algoritmo Metropólis através do programa DICE. A separação de configurações estatisticamente relevantes para os cálculos das propriedades médias foi implementada com a utilização da função de auto-correlação calculada para cada sistema. A função de distribuição radial dos líquidos moleculares foi utilizada para a separação da primeira camada de solvatação, a qual, estabelece a principal interação entre soluto-solvente. As configurações relevantes da primeira camada de solvatação de cada sistema foram submetidas a cálculos quânticos a nível semi-empírico com o método ZINDO/S-CI. Os espectros de absorção foram obtidos para os solutos em fase gasosa e para os sistemas de líquidos moleculares comentados. Os momentos de dipolo elétrico dos mesmos também foram obtidos. Todas as bandas dos espectros de absorção dos sistemas tiveram um desvio para o azul, exceto a segunda banda do sistema de Beta-Caroteno em Ácido Oléico que apresentou um desvio para o vermelho. Os resultados encontrados apresentam-se em excelente concordância com os valores experimentais encontrados na literatura. Todos os sistemas tiveram aumento no momento de dipolo elétrico devido às moléculas dos solventes serem moléculas polares. Os sistemas de ácidos graxos em álcoois apresentaram resultados muito semelhantes, ou seja, os ácidos graxos mencionados possuem comportamentos espectroscópicos semelhantes submetidos aos mesmos solventes. As simulações através do método seqüencial Monte Carlo / Mecânica Quântica estudadas demonstraram que a metodologia é eficaz para a obtenção das propriedades espectroscópicas dos líquidos moleculares analisados.
Investigação da dinâmica sequêncial Monte Carlo/Mecânica Quântica para sitemas moleculares orgânicos
Resumo:
O principal objetivo deste trabalho é investigar teóricamente as propriedades eletrônicas e óticas de compostos orgânicos em ambiente líquido. A compreensão das interações em sistemas líquidos é muito importante para a descrição de fenômenos em muitas partes da ciência, como Física, Química, Biologia e Materiais, bem como no desenvolvimento de materiais óticos. As flutuações térmicas fazem que inumaram das configurações para os líquidos possam ser gerados. Esta é a razão do comportamento estatístico observado em sistemas líquidos. Considerando estas dificuldades, o tratamento sequencial Monte Carlo / Mecânica Quântica (SMC/QM) é usado neste trabalho. Neste procedimento, a estrutura líquida é gerada primeiramente por simulações clássicas de MC e mais tarde, somente a parte mais importante do sistema é tratada com mecânica quântica. Usando o procedimento acima, os propriedades do quantum o pirazine dimethyl do thiene Methyl da laranja (MO) e do O 2,3-dimetil tieno[3,4-b] pirazina (DTP) foram investigados. O MO é um conhecido indicador de pH e pode ser encontrado sob circunstâncias básicas e acidas. Suas geometrias de mínima energia foram obtidas mediante a Teoria do Funcional da Densidade pelo funcional B3LYP, sendo o sistema descrito pelas bases de Pople com uma função de polarização (6-31G*). Para obter as propriedades médias dos observaveis, cálculos de química quântica foram executados dentro da aproximação semi-empírica de INDO/S-CI. Com respeito ao espectro de absorção, os dados experimentais existentes na literatura científica reportam a existência de uma larga banda localizada na região de baixas energias, mais precisamente entre 400 e 600 nm. Nossos resultados teóricos para a forma alcalina mostram uma transição intensa transição π → π* aproximadamente à 432.4 ± 0.03 nm e, sob condições ácidas, esta transição aparece aproximadamente à 507.4 ± 0.12, 496.4 ± 0.28 ou 545.3 ± 0.10 nm, dependendo da estrutura, mostrando bom acordo com resultados experimentais. O DTP é um sistema particular usado na produção de polímeros de baixo gap. Suas propriedades elétricas e óticas foram obtidas através de um novo procedimento conhecido por Configuração Eletrostática Média do Solvent (ASEC). O procedimento ASEC inclui moléculas do solvente como cargas pontuais e permite o obtenção das quantidades quânticas executando somente poucos cálculos de mecânica quântica. Para o DTP, usando a teoria das perturbações de segunda ordem Mφller-Plesset (MP2) e o conjunto de bases aug-cc-pVDZ, a convergência do momento de dipolo foi alcançada com apenas quatro cálculos de mecânica quântica à 1.16 D, apresentando um aumento de 42% quando comparado ao dipolo isolado. O polarizabilidade corresponde à outra característica elétrica que pôde ser medida. Considerando o mesmo nível empregado ao cálculo do dipolo, o valor médio 132.7 a30 foi observado. A região de mais baixas da energias do espectro de absorption foi investigada também atravé de procedimento de ASEC usando ambos as aproximações, semi-empírico e DFT. Esta região de absorção é motivo de conclusões contraditórias com relação à natureza das transições n → π* e π → π*. Nossos resultados mostram que realmente que essas excitações são realmente observadas simultanemente podendo sobrepôr-se. Como exemplo, nossos resultados para DFT, encontrados usando o funcional B3LYP nos mostra que estas transições aparecem aproximadamente à 360.6 e 351.1 nm.
Resumo:
Apresentamos neste trabalho um estudo teórico sobre polímeros orgânicos conjugados. É conhecido que estes sistemas, em geral semicondutores ou isolantes, sob dopagem química podem vir a adquirir propriedades elétricas de material condutor. E ainda, sob ação de campo elétrico, pequenos oligômeros podem apresentar comportamento equivalente ao de dispositivos usuais, mas com inúmeras vantagens como, por exemplo, tamanho extremamente reduzido (alguns nanômetros). Dessa forma no primeiro capítulo faremos uma breve introdução sobre polímeros orgânicos conjugados mostrando alguns resultados experimentais obtidos para o polímero 4-dicianometileno-4,4-ciclopenta [2,1-b: 3,4b’] ditiofeno – CDM, que é o objeto central de estudo desta dissertação. O capítulo 2 trata dos métodos quânticos utilizados. Citaremos a Teoria de Hartre-Fock (HF) e suas derivações semi-empíricas. A técnica de Interação de configuração (CI) e a Teoria do Funcional da Densidade (DFT) também serão tratadas neste capítulo. O capítulo 3 é dedicado a descrever as características de alguns dispositivos usuais como diodos e transistores. Aqui o fundamental é entender a composição, o funcionamento e principalmente, como se comportam suas curvas características corrente versus voltagem (IxV). Citaremos ainda alguns dispositivos eletrônicos extremamente pequenos. No capítulo 4 começa nossos resultados e discussões referentes a análise da transição isolante-metal em CDM sob ação de dopagem. Primeiramente a nível semiempírico, obtivemos a caracterização ótica de oligômeros de CDM neutro e na presença de defeitos conformacionais do tipo bipólarons negativo e positivo. Partindo de geometrias otimizadas via métodos AM1 e PM3 obtivemos o espectro de absorção para sistemas com e sem carga. A nível Hartree-Fock calculamos a Estrutura de Bandas e a Densidade de Estados (DOS) para o PCDM no estado neutro e dopado. O cálculo da DOS e da Dispersão foram realizados através de programas computacionais desenvolvidos aqui no Grupo de Física de Materiais da Amazônia (GFMA). Apresentamos ainda neste capítulo o espectro de absorção teórico para oligômeros de CDM com diversas configurações com geometrias totalmente otimizadas pelo DFT. No capítulo 5 temos os resultados relativos à análise de nanodispositivos baseados em tetrâmeros de CDM com e sem carga. As curvas do deslocamento de carga versus voltagem apresentam características de curvas de dispositivos usuais. Analisamos também o espectro de absorção teórico dos nanodispositivos para valores de tensão nula e em pontos de saturação de corrente nas regiões direta e reversa.
Resumo:
Na apresentação do desenvolvimento desta tese foram utilizados métodos ab initio, semiempíricos, e teoria do funcional densidade na investigação das propriedades do estado fundamental e estados excitados do Resveratrol e estruturas moleculares similares, assim como suas propriedades espectroscópicas. O Resveratrol é uma fitoalexina com propriedades antioxidantes, que tem como estruturas derivadas semelhantes, a Piceatannol, Para-vinylphenylphenol e Resveratrol-dihydroxyl_N (N=1,2 e 3). Os resultados obtidos correspondem à análise dos parâmetros moleculares e propriedades eletrônicas; as simulações dos espectros que correspondem as fotoexcitações para cada uma das moléculas foram feitos através de pacotes computacionais. Os métodos aproximativos utilizados nos cálculos comprovam os resultados obtidos experimentalmente, de forma a contribuir como um indicador às prováveis modificações nas propriedades químicas, físicas e biológicas do Resveratrol.
Resumo:
Neste Trabalho é apresentado um estudo teórico da estrutura eletrônica de uma molécula de fulereno C60 com junções em quatro terminais baseados em grupos doadores de elétron – etratiofulvaleno (TTF) – e grupos aceitadores de elétrons – fenilpropanodinila (FPP) e dispositivos moleculares baseados em derivados dos Carotenoides. O mecanismo de transporte investigado para os derivados dos Carotenoides foram utilizados para o melhor entendimento das curvas de Fowler- Nordheim (FN) e Millikan-Lauritsen (ML) para os sistemas baseados em fulereno C60. Em todos os casos foi possível confirmar que a análise empírica de Millikan-Lauritsen (ML) também é suficiente para descrever em todos os aspectos a espectroscopia de voltagem de transição (TVS). Para estudar os sistemas, foram feitas otimizações de geometria sistematicamente e observado uma transferência eletrônica calculada por métodos derivados de Hartree-Fock e Teoria do Funcional Densidade (DFT). Os resultados apresentados mostram um estudo detalhado do rearranjo de carga molecular para a estrutura, que sob a ação de um campo elétrico externo apontou que o transporte de carga está diretamente ligado ao tipo de junção que esse sistema é submetido de forma que a voltagem aplicada é intensa o bastante para criar um potencial de saturação nos sistemas em estudo: fulereno C60 com três terminais de tetratiofulvaleno e um terminal de fenil-propanodinila (C60-(TTF)3-FPP); fulereno C60 com quatros terminais de fenil-propanodinila (C60-(FPP)4). Os resultados mostram que se tem um retificador molecular que pode trabalhar corretamente como um retificador macroscópico.
Resumo:
La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.
Resumo:
L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.
Resumo:
Analisi del progetto di canale di bypass al bacino artificiale sul Torrente Conca (comune di Misano Adriatico). Richiami di teoria del trasporto solido. Simulazione del comportamento idraulico in moto vario del canale di bypass attraverso il programma HEC RAS. Verifiche di trasporto solido.
Resumo:
Nella presente analisi si è avuta l’eccezionale disponibilità di dati longitudinali su molti individui (6000studenti frequentanti le scuole superiori bolognesi). Per ottenere un modello che al meglio spiegasse e riproducesse l’andamento degli esiti scolastici (promozione alla classe successiva) tenendo conto del percorso scolastico nel tempo, si è scelto il modello a curva latente condizionato. La variabile risposta è combinazione lineare dell’esito di fine anno (Promosso/Non promosso); riassume, per ogni studente/anno scolastico, classe frequentata ed esito finale. Le variabili esplicative sono state selezionate tra le informazioni disponibili per gli individui. Vengono presentati alcuni dati aggregati, poi descritti i dati individuali che entreranno nel modello, evidenziando la composizione degli studenti. La prima fase è la stima del modello logistico, con specificazione delle criticità, che hanno indotto alla scelta successiva del modello dipendente dal tempo. Dopo la descrizione della metodologia principale utilizzata, la teoria del conditionalLCM, e la selezione degli indicatori di fitting, viene delineata la procedura di stima, e raggiunto il modello ottimale. Le variabili significative per spiegare l’andamento delle promozioni individuali nel tempo risultano: cittadinanza (italiani con risultati significativamente migliori degli stranieri), sesso (ragazze con percorso scolastico mediamente migliore dei ragazzi: la differenza risulta però significativa soltanto negli istituti tecnici e professionali), tipologia di scuola frequentata (studenti del liceo con risultati significativamente migliori di chi frequenta altri tipi di istituto). I risultati risultano fortemente dipendenti dai dati impiegati, specie riguardo al limite territoriale. Precedenti analisi evidenziavano una forte differenziazione dei risultati scolastici tra studenti del nord e del sud Italia, oltre che tra studenti dei comuni maggiormente popolati e studenti dei comuni di provincia. Sarebbe interessante disporre di dati individuali analoghi a quelli qui utilizzati, ma riferiti all’intero territorio nazionale, oppure ad un zona maggiormente vasta dell’Italia, onde saggiare l’entità dell’influenza sul percorso scolastico,ed in particolare sulla regolarità, della differenza territoriale.
Resumo:
Questa tesi nasce innanzitutto dalla mia esperienza di tirocinio curriculare, durante la quale ho sottotitolato un cortometraggio irlandese di animazione narrato in rima (oltre che dalla mia passione antica per il cinema in lingua originale e più recente per il doppiaggio). La tesi si compone di tre capitoli. Inizia con l'analisi di una parte della teoria del sottotitolaggio, poi presenta il filmato, alcuni suoi autori, il testo originale e i miei sottotitoli, e si conclude con la spiegazione del metodo usato per realizzare concretamente l'adattamento.
Resumo:
Oggetto di questa tesi è l’analisi delle modalità di rappresentazione del trauma nel romanzo del Novecento e, in particolare, nelle opere di Samuel Beckett, Georges Perec e Agota Kristof. Fondamento dello studio sarà una disamina dei procedimenti linguistici e narrativi di rappresentazione del trauma nelle prose degli autori citati, al fine tracciare le linee di un’estetica in grado di descrivere le caratteristiche peculiari delle narrazioni in cui la dimensione antinarrativa della memoria traumatica assume il ruolo di principio estetico guida. L’analisi si soffermerà sulla cruciale relazione esistente, in tutti e tre gli autori, tra rappresentazione del trauma e sviluppo di strategie narrativi definibili come “denegative”. L’analisi dei testi letterari è condotta sulla base del corpus critico dei Trauma Studies, dell’ermeneutica della narrazione di stampo ricœuriano e della teoria del linguaggio psicoanalitica e affiancata, ove possibile, da uno studio filologico-genetico dei materiali d’autore. Alla luce di tali premesse, intendo rivalutare il carattere rappresentativo e testimoniale della letteratura del secolo scorso, in contrasto con la consuetudine a vedere nel romanzo novecentesco il trionfo dell’antimimesi e il declino del racconto. Dal momento che le narrazioni traumatiche si costruiscono intorno e attraverso i vuoti di linguaggio, la tesi è che siano proprio questi vuoti linguistici e narrativi (amnesie, acronie, afasie, lapsus, omissioni e mancanze ancora più sofisticate come nel caso di Perec) a rappresentare, in modo mimetico, la realtà apparentemente inaccessibile del trauma. Si tenterà di dimostrare come questi nuovi canoni di rappresentazione non denuncino l’impossibilità del racconto, bensì una sfida al silenzio, celata in più sottili e complesse convenzioni narrative, le quali mantengono un rapporto di filiazione indiretto − per una via che potremmo definire denegativa − con quelle del romanzo tradizionale.
Resumo:
Progetto di un controllore basato sulla teoria del modello interno per fare inseguire traiettorie circolari ad un quadrirotore