14 resultados para Termodinâmica fora do equilíbrio
em Repositório da Universidade Federal do Espírito Santo (UFES), Brazil
Resumo:
Os métodos de análise de estruturas de contenção de solo reforçado sob condições de trabalho, em geral, desconsideram a contribuição da face para o equilíbrio da estrutura. Visando estudar a influência do peso específico da face e das propriedades relacionadas à rigidez da mesma sobre o desempenho das estruturas de solo reforçado, são realizadas simulações numéricas de diversas estruturas, utilizando a versão de dupla precisão do programa CRISP92-SC. Avalia-se, também, o emprego de diferentes tipos de elementos para a representação da face. Verifica-se que a face rígida impõe redução significativa das solicitações máximas de tração nos reforços e dos deslocamentos das estruturas de solo reforçado. A influência do peso específico da face sobre a estabilidade interna dos maciços reforçados mostrase desprezível e constata-se que a rigidez à flexão e a rigidez axial da face, função da sua geometria e do seu módulo de Young, são parâmetros influentes no comportamento das estruturas de contenção de solo reforçado. As variações da tração no reforço e da resultante de força cortante na face, em decorrência do enrijecimento da face, são analisadas e propõe-se uma relação entre elas. Quanto à forma de representação de uma face com rigidez expressiva, na simulação de uma estrutura de solo reforçado com o CRISP92-SC, é observado que a representação da face, seja por elementos de viga, seja por elementos quadriláteros, não altera os resultados da análise.
Resumo:
No presente trabalho, foram estudados os dados de equilíbrio de fases dos sistemas aquosos bifásicos formados por polietilenoglicol (1500, 3350 e 6000) + fosfato monobásico e dibásico de sódio (pH 7) + água. Estudou-se o efeito da variação da temperatura (10, 25 e 40°C) bem como da massa molar sobre os dados de equilíbrio. Para o PEG 3350 observou-se um aumento da área bifásica com diminuição da temperatura, mostrando que a formação do sistema aquoso bifásico é exotérmico. Para o PEG 1500 e 6000 houve aumento da área bifásica à 10 e 40°C se comparado à temperatura de 25°C. Em todas as temperaturas em estudo, o aumento da massa molar contribuiu para o aumento da área bifásica. Fato este que foi explicado pelo aumento do caráter hidrofóbico com o aumento da massa do polietilenoglicol.
Resumo:
A ultra-estrutura e a composição química da madeira, bem como suas propriedades físicas e mecânicas, variam significativamente entre espécies, entre árvores de uma mesma espécie e, mesmo, entre diferentes partes de uma mesma árvore. Com este trabalho objetivou-se o estudo dos parâmetros de retratibilidade e de densidade básica da madeira Eucalyptus saligna, com idade de 16 anos, proveniente de talhões experimentais da EMBRAPA Florestas, de Colombo, Paraná. As amostras foram retiradas à altura do DAP de quatro posições eqüidistantes a partir da medula em direção à periferia, correspondendo a 0, 33, 66 e 100%, com dimensões nominais de 1,0 x 2,0 x 3,0 cm, sendo a última dimensão no sentido longitudinal. Elas foram mantidas em câmara fechada com ventilação, próximo de soluções salinas supersaturadas, com o objetivo de proporcionar diferentes condições de umidade relativa. Uma vez atingidas as distintas condições de umidade de equilíbrio, as amostras foram secas em estufa a 105 ºC e obtidos os dados de retratibilidade e densidade básica da madeira nas posições mencionadas. Constataram-se valores de contração volumétrica mais baixos na região medular, apresentando um acréscimo para as demais posições. Comportamento semelhante foi observado para os coeficientes das contrações lineares nas direções tangencial e radial. O fator anisotrópico foi consideravelmente mais elevado na região medular, decrescendo substancialmente em direção ao alburno. A densidade básica não mostrou sinais efetivos de estabilidade, apesar de mostrar tendência de aumento em direção à periferia do tronco.
Resumo:
O estudo da higroscopicidade é indispensável para o entendimento da trabalhabilidade, estabilidade dimensional, resistência mecânica e durabilidade natural da madeira. Neste trabalho objetivou-se a avaliação do teor de equilíbrio higroscópico para diversas condições de umidade relativa do ar, bem como da retratibilidade linear e volumétrica e da densidade básica da madeira de Eucalyptus saligna Sm. A madeira utilizada foi proveniente de árvores com 16 anos de idade, procedentes de talhões experimentais da EMBRAPA Florestas de Colombo, Paraná. Amostras com dimensões de 1,0x2,0x3,0 cm, sendo a última na direção longitudinal, foram colocadas em uma câmara fechada, sob ventilação, próximas de recipientes com soluções salinas supersaturadas, a fim de atingir determinada condição preestabelecida de teor de equilíbrio higroscópico. Após o equilíbrio da umidade da madeira nas distintas condições de umidade relativa, as amostras foram secas em estufa, para posterior avaliação. Os dados relativos à umidade de equilíbrio ajustaram-se muito bem às condições de umidade relativa adotadas neste estudo, tendo sido possível estimar com grande precisão o teor de equilíbrio higroscópico, para a faixa de aproximadamente 20 até 100% de umidade relativa. A madeira em estudo apresentou dados de retratibilidade bastante elevados, se comparados aos de outras da mesma faixa de densidade. Apesar dos elevados coeficientes de contração, o fator anisotrópico ou relação T/R mostrou-se próximo daquele encontrado na grande maioria das madeiras comerciais brasileiras. Verificaram-se ainda coeficientes de contrações mais suaves nos teores de umidade abaixo de 17%.
Resumo:
O artigo trata da posição teórica de Keynes relativamente à economia clássica e à abordagem denominada herética. A primeira seção resgata os traços distintivos das escolas clássica e neoclássica segundo a demarcação proposta por Keynes, bem como as críticas por ele dirigidas às principais teses defendidas por essas linhagens teóricas. A seguir, retoma-se a sua avaliação dos argumentos subconsumistas, indicando-se os seus pontos de convergência e distanciamento dessa visão econômica. Na continuação, apresentam-se as interpretações neoclássicas ao problema da demanda, comentando-se a relação da obra de Keynes com a tradição marshalliana. A última seção avalia a teoria neoclássica do produto real sob condições cíclicas e introduz a versão de Keynes para o equilíbrio agregado definido pelas propensões a gastar e a investir, além de indicar o componente de fragilidade da leitura marshalliana de sua estrutura teórica. Por fim, comenta-se a contribuição de Keynes ao conhecimento econômico da época perante a escola clássica e os hereges.
Resumo:
O artigo trata do debate ocorrido entre Sismondi e os economistas ricardianos, na primeira metade do século dezenove, a respeito do equilíbrio dos mercados, do papel da competição e dos efeitos da maquinaria nas sociedades industriais. A seção inicial reconstitui os principais termos do discurso crítico de Sismondi direcionado à ortodoxia clássica. A seguir, detalham-se as respostas elaboradas por McCulloch e Torrens em defesa da livre concorrência, do caráter ilimitado da demanda e do avanço da mecanização na atividade produtiva. A terceira seção considera a argumentação posterior de Sismondi na qual ele reitera sua teoria das crises de superprodução a partir de uma abordagem histórica do capitalismo. Ao final, procede-se a uma breve avaliação da herança ricardiana à economia política em vista da controvérsia examinada.
Resumo:
Talvez não seja nenhum exagero afirmar que há quase um consenso entre os praticantes da Termoeconomia de que a exergia, ao invés de só entalpia, seja a magnitude Termodinâmica mais adequada para ser combinada com o conceito de custo na modelagem termoeconômica, pois esta leva em conta aspectos da Segunda Lei da Termodinâmica e permite identificar as irreversibilidades. Porém, muitas vezes durante a modelagem termoeconômica se usa a exergia desagregada em suas parcelas (química, térmica e mecânica), ou ainda, se inclui a neguentropia que é um fluxo fictício, permitindo assim a desagregação do sistema em seus componentes (ou subsistemas) visando melhorar e detalhar a modelagem para a otimização local, diagnóstico e alocação dos resíduos e equipamentos dissipativos. Alguns autores também afirmam que a desagregação da exergia física em suas parcelas (térmica e mecânica) permite aumentar a precisão dos resultados na alocação de custos, apesar de fazer aumentar a complexidade do modelo termoeconômico e consequentemente os custos computacionais envolvidos. Recentemente alguns autores apontaram restrições e possíveis inconsistências do uso da neguentropia e deste tipo de desagregação da exergia física, propondo assim alternativas para o tratamento de resíduos e equipamentos dissipativos que permitem a desagregação dos sistemas em seus componentes. Estas alternativas consistem, basicamente, de novas propostas de desagregação da exergia física na modelagem termoeconômica. Sendo assim, este trabalho tem como objetivo avaliar as diferentes metodologias de desagregação da exergia física para a modelagem termoeconômica, tendo em conta alguns aspectos como vantagens, restrições, inconsistências, melhoria na precisão dos resultados, aumento da complexidade e do esforço computacional e o tratamento dos resíduos e equipamentos dissipativos para a total desagregação do sistema térmico. Para isso, as diferentes metodologias e níveis de desagregação da exergia física são aplicados na alocação de custos para os produtos finais (potência líquida e calor útil) em diferentes plantas de cogeração considerando como fluido de trabalho tanto o gás ideal bem como o fluido real. Plantas essas com equipamentos dissipativos (condensador ou válvula) ou resíduos (gases de exaustão da caldeira de recuperação). Porém, foi necessário que uma das plantas de cogeração não incorporasse equipamentos dissipativos e nem caldeira de recuperação com o intuito de avaliar isoladamente o efeito da desagregação da exergia física na melhoria da precisão dos resultados da alocação de custos para os produtos finais.
Resumo:
O trabalho buscou analisar questões de desigualdade regional no Espírito Santo através da linha de pesquisa denominada Nova Geografia Econômica (NGE). Uma forma de realizar essa análise é através do estudo da relação entre diferenciais de salário e mercado potencial. Mais precisamente, o trabalho procurou verificar o impacto de fatores geográficos de segunda natureza – mercado potencial – nos salário médios municipais. Inicialmente, por meio de uma Análise Exploratória de Dados Espaciais, verificou-se que os salários são maiores próximos às regiões com alto mercado potencial (litoral/RMGV). Por meio da utilização de técnicas de estatística e econometria espacial foi possível observar para os anos de 2000 e 2010 a existência de uma estrutura espacial de salários no Espírito Santo. O coeficiente de erro autorregressivo foi positivo e estatisticamente significativo, indicando o modelo SEM (spatial error model) como o mais apropriado para modelar os efeitos espaciais. Os resultados indicam ainda que não só fatores educacionais afetam os salários, fatores geográficos de segunda natureza possuem um efeito até maior quando comparados aos primeiros. Conclui-se, como demonstra o modelo central da NGE que, forças exclusivamente de mercado nem sempre levam ao equilíbrio equalizador dos rendimentos, pelo contrário, levam à conformação de uma estrutura do tipo centro-periferia com diferença persistente de rendimentos entre as regiões. Adicionalmente, verifica-se que os municípios que apresentam maior salário, maior mercado potencial e melhores indicadores sociais são àqueles localizados no litoral do estado, mais precisamente os municípios próximos à RMGV. Sendo assim, o trabalho reforça a necessidade de que se pense estratégias que fomentem a criação de novas centralidades no Espírito Santo, a fim de atuar na redução das desigualdades regionais. O trabalho se insere num grupo de vários outros estudos que analisaram questões de desigualdade e concentração produtiva no Espírito Santo. A contribuição está na utilização do referencial teórico da NGE, que ainda não havia sido empregada para o estado, e na utilização de técnicas de estatística espacial e econometria espacial.
Resumo:
As mudanças institucionais e regulatórias inseridas principalmente no setor de infraestrutura, em particular no setor de energia, passaram a ser um novo ponto de governança para o Estado a partir de meados da década de 1990. Naquele formato inicial, ficou claro um planejamento inadequado, uma vez que as privatizações de empresas do setor de energia ocorreram antes da criação da Agência Nacional de Energia Elétrica (ANEEL). Esse ponto, segundo os principais autores foi decisivo e pontual para que, nos primeiros anos, o processo regulatório não ter atendido as necessidades dos agentes envolvidos (Estado, empresa e cidadão). Esta situação culminou com uma forte crise no setor, bem como no racionamento de energia ocorrido no início do Século XXI. Essa situação levou a um outro período de reforma, instalado em 2004. O ponto principal desse trabalho esta fundamentando em apresentar algumas questões ligadas aos desafios da ANEEL, sendo esta sedimentada nos processos de aprendizado e conhecimento, porém não esquecendo de abordar os pontos fundamentais e impeditivos para que a plena eficiência seja alcançada. Ao longo desse estudo, podemos analisar que os resultados alcançados pela ANEEL são em parte sólidos, porém fatores como: dificuldades em retenção de pessoas no corpo da agência, restrições orçamentárias, riscos constantes de captura, aliado ao processo de assimetria de informação, bem como a convivência com o misto de empresas públicas e privadas, são fatores que aumentam as incertezas no ambiente e no processo regulatório, contribuindo, ainda que indiretamente, para que os investimentos não sejam aplicados de acordo com o planejado, conseqüentemente, toda essa condição tem afetado os resultados e o equilíbrio do setor de energia.
Resumo:
Diferenças na susceptibilidade do hospedeiro à infecção, na gravidade e na permanência do quadro clínico da doença podem ser atribuídas, em parte, às variações da resposta imune. Estas variações são associadas a polimorfismos de nucleotídeo único (do inglês: single nucleotide polymorphisms - SNPs). Como estudo prévio, foi realizada a caracterização da população geral do Espírito Santo (ES) - Brasil e de uma subpopulação do estado, de origem Pomerana, quanto aos SNPs -131 H/R, -336 A/G, TaqI, -308 A/G, -590 C/T, -174 G/C e +874 A/T nos genes FcγRIIa, CD209, VDR, TNFα, IL-4, IL-6 e INF-γ, respectivamente. Cem indivíduos da Grande Vitória representaram a população geral do ES e 59 indivíduos de Santa Maria de Jetibá representaram a população de origem Pomerana. Como a fase aguda da dengue é bem caracterizada, este estudo objetivou ampliar o conhecimento da fase de convalescença. Noventa e seis indivíduos diagnosticados com dengue sintomática no final de 2012 e início de 2013, no ES, foram acompanhados por 60 dias a partir do início dos sintomas por meio do preenchimento de um questionário clínico e epidemiológico em quatro entrevistas. A persistência de 37 sintomas clínicos da dengue foi avaliada. Para analisar a influência da genética do sistema imunológico do hospedeiro na persistência de sintomas clínicos da dengue na fase de convalescença, foi determinada a associação entre os sete SNPs, para os quais a população do ES foi caracterizada, e a persistência de sintomas. O DNA genômico dos participantes do estudo foi extraído do sangue periférico e a genotipagem dos SNPs foi realizada por reação em cadeia da polimerase - polimorfismo de comprimento de fragmento de restrição (do inglês: polymerase chain reaction - restriction fragment length polymorphism - PCR-RFLP) As frequências genotípicas de todos os SNPs encontraram-se em equilíbrio de Hardy-Weinberg (do inglês: Hardy-Weinberg equilibrium - HWE), com exceção do SNP no gene IL-6. Não houve diferença estatisticamente significante nas frequências genotípicas dos SNPs nos genes FcγRIIa, CD209, VDR, TNF-α e IL-4 entre as duas populações. Diferença estatisticamente significante foi encontrada entre as duas populações nas distribuições genotípicas dos SNPs nos genes IL-6 (p = 0,03) e INF-γ (p = 0,007). Trinta e sessenta dias após o início dos sintomas, 38,5% e 11,5% dos indivíduos com dengue sintomática reportaram ter pelo menos um sintoma clínico da dengue, respectivamente. Dos sintomas analisados, os mais persistentes foram os relacionados à síndrome da fadiga como mialgia, artralgia, astenia e mal-estar, sendo a mialgia o mais frequente. A persistência de sintomas em 30 dias foi associada ao gênero feminino (p = 0,044) e a persistência de sintomas constitucionais foi associada à dengue secundária (p = 0,041). O SNP no gene FcγRIIa, foi associado à persistência de sintomas em 30 dias, no subgrupo de indivíduos com dengue secundária (p = 0,046), sendo a presença do alelo H associada à não persistência de sintomas (p = 0,014). A presença do alelo A do SNP no gene TNF-α foi associada à não persistência de sintomas no subgrupo de indivíduos com dengue secundária (p = 0,025), sendo o genótipo GG associado à persistência de sintomas neurológicos, psicológicos e comportamentais em 30 dias (p = 0,038). A presença do alelo C do SNP no gene IL-6 foi associado à persistência de sintomas dermatológicos em 30 dias (p = 0,005). O perfil genético desses SNPs pode favorecer o estabelecimento de marcadores imunogenéticos associados à fase convalescente da infecção pelo vírus da dengue (do inglês: dengue virus - DENV).
Resumo:
Este trabalho tem por objetivo discutir o surgimento de um programa de pesquisa na Ciência Econômica, no que concerne a análise das assimetrias de informação, as diferenças epistemológicas e as implicações em termos de equilíbrio ótimo de Pareto, em contraponto à abordagem neoclássica standard. Em busca de tal objetivo, foi necessário destacar o método de ambos os paradigmas; todavia, era igualmente necessário discutir a filosofia/epistemologia da ciência envolvida e que serviria de base para uma abordagem relacionada a mudanças paradigmáticas na ciência. No capítulo 1, discutimos a epistemologia da ciência, a partir de três autores: Popper, Kuhn e Lakatos. Definimos o conjunto de hipóteses que podem ser associadas ao método empregado pela Escola Neoclássica, a partir da filosofia da ciência proposta por Lakatos. Em seguida, no capítulo 2, fizemos uma longa exposição do método neoclássico, definindo os axiomas inerentes às preferências bem-comportadas, apresentando algebricamente o equilíbrio geral walrasiano, exemplificando o relaxamento de hipóteses auxiliares do modelo neoclássico a partir de Friedman e, por fim, aplicando o instrumental neoclássico ao relaxamento da hipótese auxiliar de perfeição da informação, a partir do modelo desenvolvido por Grossman & Stiglitz (1976), bem como da expansão matemática desenvolvida pelo presente trabalho. Finalmente, encerramos a presente dissertação com o capítulo 3, no qual, basicamente, expomos as principais contribuições de autores como Stiglitz, Akerlof e Arrow, no que concerne a mercados permeados por informações assimétricas e comportamentos oportunistas. Procuramos mostrar as consequências para o próprio mercado, chegando a resultados em que o mesmo era extinto. Apresentamos a segunda parte do modelo de Grossman & Stiglitz, enfatizando a natureza imperfeita do sistema de preços, sua incapacidade de transmitir todas as informações sobre os bens ao conjunto dos agentes, e, por fim, discutimos tópicos variados ligados à Economia da Informação.
Resumo:
O Painel Intergovernamental sobre Mudanças Climáticas (IPCC) através do seu Quarto Relatório de Avaliação das Mudanças Climáticas Globais (IPCC-AR4), publicado em 2007, atribui as emissões de gases de efeito estufa como a principal causa do aumento médio das temperaturas e alerta para uma elevação entre 1,8 ºC e 6,4 ºC até 2100, podendo modificar assim a aptidão climática para as culturas agrícolas em diversas regiões do planeta. Diante disso, existe a necessidade de substituição dos combustíveis fósseis por fontes renováveis e limpas de energia, como o etanol. A cana-de-açúcar apresenta-se, portanto, como uma cultura estratégica na produção do etanol. O presente trabalho teve como objetivos: 1) avaliar o desempenho dos Modelos Climáticos Globais (MCGs) do IPCC-AR4 na simulação de dados climáticos de temperatura do ar e precipitação pluviométrica para o período anual e mensal; 2) elaborar o zoneamento agroclimático da cana-de-açúcar para a América do Sul considerando o clima referência e o futuro para as décadas de 2020, 2050 e 2080 em função do cenário de emissão A1B considerado pessimista e que usa um equilíbrio entre todas as fontes de energia. Para a avaliação do desempenho dos MCGs, foram utilizados dados climáticos médios mensais observados de precipitação e temperatura do ar provenientes do Climatic Research Unit (CRU) e dados simulados oriundos dos 22 MCGs do IPCC (cenário 20c3m) compreendidos entre o período de 1961-1990, além do Multimodel (ensemble) – MM que é a média da combinação dos dados de todos os modelos. O desempenho dos MCGs foi avaliado pelos índices estatísticos: desvio padrão, correlação, raiz quadrada da média do quadrado das diferenças centralizadas e o “bias” dos dados simulados com os observados, que foram representados no diagrama de Taylor. Para a etapa da elaboração do zoneamento agroclimático procedeu-se o cálculo dos balanços hídricos (referência e futuros) da cultura, pelo método de Thornthwaite & Mather (1955). Para o cenário referência, utilizaram-se dados das médias mensais da precipitação e temperatura provenientes do CRU, enquanto que para as projeções futuras, dados provenientes das anomalias do Multimodel (ensemble) – MM para as décadas de 2020, 2050 e 2080, que foram ajustados, obtendo-se assim as projeções futuras para cada período analisado. Baseado nos mapas temáticos reclassificados de deficiência hídrica anual, temperatura média anual, excedente hídrico anual e no índice de satisfação das necessidades de água (ISNA), realizou-se uma sobreposição dessas informações obtendo assim, os mapas finais do zoneamento agroclimático da cana-de-açúcar. Posteriormente ao zoneamento, realizou-se a análise das transições (ganhos, perdas e persistências) entre as classes de aptidão climática da cultura. Os resultados mostram que o Multimodel (ensemble) – MM para o período mensal apresenta o melhor desempenho entre os modelos analisados. As áreas inaptas correspondem a maior parte da América do Sul e uma expressiva transição entre as classes de aptidão climática da cultura.
Resumo:
A combinação da agricultura de precisão e do Sistema Integrado de Recomendação Foliar (DRIS) possibilita monitorar espacialmente o balanço nutricional dos cafezais para fornecer recomendações de adubação mais equilibradas e mais ajustadas economicamente. O objetivo deste trabalho foi avaliar a variabilidade espacial do estado nutricional do cafeeiro conilon, utilizando o Índice de Balanço Nutricional (IBN) e sua relação com a produtividade. A produtividade das plantas em cada ponto amostral foi determinada e construiu-se o seu mapa considerando a variabilidade espacial; determinou-se o Índice de Equilíbrio Nutricional (IBN) das plantas em cada ponto amostral e construiu-se o seu mapa; e utilizou-se a análise de componentes principais (ACP) para estimar o IBN do cafeeiro por cokrigagem. Os dados do cafeeiro conilon foram coletados em fazenda experimental, no município de Cachoeiro de Itapemirim-ES. O IBN do cafeeiro e a sua produtividade foram analisados por meio de geoestatística, com base nos modelos e parâmetros dos semivariogramas, utilizando o método de interpolação krigagem ordinária para estimar valores para locais não amostrados. O índice de Balanço Nutricional da lavoura do cafeeiro conilon apresentou dependência espacial, porém não apresentou correlação linear e nem espacial com a produtividade. A lavoura em estudo se encontra em desequilíbrio nutricional, sendo que entre os macronutrientes, o Potássio foi o que apresentou maior desequilíbrio na área, entre os micronutrientes, o Zinco e o Ferro foram os que apresentaram menores concentrações nas folhas. A confecção dos mapas possibilitou a distinção de regiões com maior e menor desequilíbrio nutricional e produtividade, o que possibilita adotar o manejo de forma diferenciada e localizada. A análise multivariada baseada em componentes principais fornece componentes com alta correlação com as variáveis originais P, Ca, Zn , Cu, K e B. A cokrigagem utilizando as componentes principais permite estimar o IBN e a produtividade da área.
Resumo:
O debate entre os paradigmas da mecânica e o sistêmico tem causado importantes revoluções nos mais diversos campos de conhecimento, principalmente na física, química e biologia. Sendo assim, esta dissertação tem o objetivo de analisar como as teorias sistêmicas mais recentes desenvolvidas na química, a partir de Prigogine, e na biologia, conforme Maturana e Varela, podem contribuir para a abordagem institucionalista de Veblen. Para isso, apoiar-se-á na hipótese fornecida pela Teoria Geral dos Sistemas, de Bertalanffy (2006), no qual se refere que os princípios que regem um determinado sistema independem das particularidades de seus componentes mas do modo como estes se inter-relacionam. Assim, a convergência entre estas três teorias passa a ser válida uma vez que o tipo de sistema tratado em todas seja caracterizado por: 1) irreversibilidade da trajetória de suas mudanças, 2) com oposição à ideia de equilíbrio e 3) a introdução de uma abordagem evolucionária e com tempo histórico. Este trabalho se inicia a partir da introdução ao debate entre os paradigmas da mecânica e sistêmico surgido no ramo da física. Na sequência apresenta os referenciais teóricos do institucionalismo de Veblen e da teoria das estruturas dissipativas e autopoiese. Em seguida é feito a análise de convergência entre os arcabouços teóricos vistos, e verificado como as abordagens de Prigogine juntamente com a de Maturana e Varela podem contribuir para o estudo das instituições. Por fim é mostrado como a abordagem desenvolvida neste trabalho pode auxiliar no tratamento de questões relacionadas à economia, com ênfase dada especificamente no que tange a economia monetária.