986 resultados para Fundamentação
Resumo:
A tese a seguir possui como tema norteador a questão da fundamentação do conhecimento em Edmund Husserl. No interior da fenomenologia husserliana, o questionamento epistemológico é colocado em novos termos, na medida em que ele passará a pressupor uma superação do lapso entre sujeito e objeto, bem como do consequente problema do acesso à realidade, tal como instaurados pelo pensamento moderno. Portanto, todo o nosso trabalho consiste em uma confrontação e reapropriação crítica de conceitos decisivos para a teoria do conhecimento, tais como os de, sentido, objeto, consciência, transcendência, entre outros.
Resumo:
Relatório da prática de ensino supervisionada, Mestrado em Ensino de Filosofia, Universidade de Lisboa, 2014
Resumo:
Este texto foi apresentado, na sua versão em inglês, na Third EAAE-ENHSA Sub- network Workshop on Architectural Theory. Havendo hoje necessidade de reflectir sobre o âmbito das investigações disciplinares em Arquitectura, este texto procurará lançar a questão da fundamentação na Arquitectura. Ao fazê-lo, não o faz no sentido de questionar a validade do seu objecto, mas antes procurando conferir-lhe alguns contornos. Para tal usa os seis conceitos lançados por Vitrúvio acerca da constituição da Arquitectura, procurando, por etapas pré-determinadas, encontrar o significado das suas transformações. Verificamos aqui que da Antiguidade aos nossos dias a Arquitectura sofreu uma verdadeira inversão no seu papel mediador. De uma mediação entre o sagrado e o profano, a Arquitectura passa, paulatinamente, por se constituir como elemento mediador entre um objecto físico natural e o sujeito, até se constituir como mediação entre um sistema sintáxico autónomo a uma autoconsciência.
Resumo:
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
Resumo:
Esta dissertação expõe a fundamentação do conceito de bem comum no pensamento de JOHN MITCHELL FINNIS. Este jusfilósofo tem como ponto de partida para sua reflexão uma reinterpretação da ética tomista. Dela interessa o tratamento dado à separação das quatro ordens de conhecimento, particularmente a separação entre ordem natural e prática. A ordem prática de conhecimento tem suas próprias diretrizes. Logo, assim como na ordem natural de conhecimento a primeira diretriz é o princípio da não contradição, na ordem prática o primeiro princípio é o bem é para ser feito e buscado e o mal evitado. Estes postulados não são imperativos e nem indicativos, mas diretivos; e, no caso da ordem prática, uma diretiva para ação. A implicação epistemológica está em que a fundamentação imediata do agir humano não reside na natureza humana, mas na percepção prática de bens a serem realizados e dos males a serem evitados. Há um número determinado de bens humanos básicos, que são as razões primeiras para o agir humano. Eles são objetivos, incomensuráveis, auto-evidentes e pré-morais. O rol que FINNIS propõe é vida, conhecimento, matrimônio, excelência na realização, sociabilidade/amizade, razoabilidade prática e ‘religião’. O conteúdo da moral resulta destes bens humanos e tem como princípio supremo toda a escolha deve favorecer e respeitar o bem humano integral. Além de sintetizar a correção para o agir individual, a moral também fundamenta e demanda um agir social correto, que está expresso no conceito de bem comum. FINNIS define bem comum nos seguintes termos: um conjunto de condições que tornam aptos os membros de uma comunidade a alcançar por si mesmos objetivos razoáveis, ou realizar razoavelmente por si mesmos o(s) valor(es) pelos quais eles têm razão em colaborar uns com os outros (positiva e/ou negativamente) em uma comunidade. O conteúdo específico do bem comum da comunidade política é constituído pela justiça. O direito é o objeto da justiça e, assim, meio pelo qual o Estado a realiza e, por conseqüência, o bem comum.
Resumo:
A indústria de seguros é uma atividade econômica relativamente jovem, possuindo raízes na revolução industrial. O desenvolvimento dessa indústria ocorreu de forma bastante intensa durante o século passado, quando a atividade passou a ser inserida na área de gestão de riscos. As Companhias de Seguros que trabalham nesse ambiente de negócio fundamentam todo o processo de precificação dos seus produtos em rígidas bases técnicas e atuariais. O presente trabalho dedica-se ao estudo dessas questões, abordando especificamente os seguros de vida, com ênfase à cobertura de morte. A pesquisa tem por objetivo comparar duas modalidades distintas de seguros que são ofertadas ao mercado: o seguro de vida individual e o seguro de vida em grupo. Embora ofereçam aos consumidores coberturas bastante similares, ambas as modalidades devem obedecer a requisitos e princípios técnicos diferenciados por parte das instituições que fazem a sua gestão.
Resumo:
Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.
Resumo:
O objetivo deste artigo é discutir a necessidade de uma microfundamentação para a macroeconomia. Para tanto procurará mostrar que este é um falso problema para a análise Keynesiana, na medida em que esta supõe que a coordenação da economia não pode ser feita mediante os mecanismos de preços, mas que depende de certos arranjos institucionais. De outro lado, a análise procurará mostrar que os mecanismos de preços não podem coordenar uma economia real, no caso a capitalista, se supusermos realisticamente que esta apresenta, através do mecanismo de preços, comportamentos complexos e/ou caóticos.
Resumo:
Resumo não disponível.