961 resultados para Transaction cost theory
Resumo:
The computation of the optical conductivity of strained and deformed graphene is discussed within the framework of quantum field theory in curved spaces. The analytical solutions of the Dirac equation in an arbitrary static background geometry for one dimensional periodic deformations are computed, together with the corresponding Dirac propagator. Analytical expressions are given for the optical conductivity of strained and deformed graphene associated with both intra and interbrand transitions. The special case of small deformations is discussed and the result compared to the prediction of the tight-binding model.
Resumo:
A modified version of the metallic-phase pseudofermion dynamical theory (PDT) of the 1D Hubbard model is introduced for the spin dynamical correlation functions of the half-filled 1D Hubbard model Mott– Hubbard phase. The Mott–Hubbard insulator phase PDT is applied to the study of the model longitudinal and transverse spin dynamical structure factors at finite magnetic field h, focusing in particular on the sin- gularities at excitation energies in the vicinity of the lower thresholds. The relation of our theoretical results to both condensed-matter and ultra-cold atom systems is discussed.
Resumo:
We demonstrate the first example of silicon nanowire array photocathodes coupled with hollow spheres of the emerging earth-abundant cobalt phosphide catalysts. Compared to bare silicon nanowire arrays, the hybrid electrodes exhibit significantly improved photoelectrochemical performance toward the solar-driven H2 evolution reaction.
Resumo:
We study the low frequency absorption cross section of spherically symmetric nonextremal d-dimensional black holes. In the presence of α′ corrections, this quantity must have an explicit dependence on the Hawking temperature of the form 1/TH. This property of the low frequency absorption cross section is shared by the D1-D5 system from type IIB superstring theory already at the classical level, without α′ corrections. We apply our formula to the simplest example, the classical d-dimensional Reissner-Nordstr¨om solution, checking that the obtained formula for the cross section has a smooth extremal limit. We also apply it for a d-dimensional Tangherlini-like solution with α′3 corrections.
Resumo:
We analyze the low frequency absorption cross section of minimally coupled massless scalar fields by different kinds of charged static black holes in string theory, namely the D1–D5 system in d=5 and a four dimensional dyonic four-charged black hole. In each case we show that this cross section always has the form of some parameter of the solution divided by the black hole Hawking temperature. We also verify in each case that, despite its explicit temperature dependence, such quotient is finite in the extremal limit, giving a well defined cross section. We show that this precise explicit temperature dependence also arises in the same cross section for black holes with string \alpha' corrections: it is actually induced by them.
Resumo:
This article presents results of an experimental investigation on the resistance to chemical attack (with sulphuric, hydrochloric and nitric acid) of several materials: OPC concrete, high-performance concrete, epoxy resin, acrylic painting and a fly ash-based geopolymeric mortar). Three types of acids with three high concentrations (10, 20 and 30%) were used to simulate long-term degradation. A cost analysis was also performed. The results show that the epoxy resin has the best resistance to chemical attack independently of the acid type and the acid concentration. However, the cost analysis shows that the epoxy resin-based solution is the least cost-efficient solution being 70% above the cost efficiency of the fly ash-based geopolymeric mortar.
Resumo:
A teoria institucional constituiu o enquadramento no qual foi suportada a pergunta geral desta investigação: como e porquê a Normalização da Contabilidade de Gestão (NCG) nos hospitais públicos portugueses surgiu e evoluiu? O objetivo geral foi compreender de forma profunda o surgimento e a mudança nas regras de NCG dos hospitais públicos portugueses no período histórico 1954-2011. Face ao enquadramento institucional que justificou uma investigação interpretativa, foi usado como método de investigação um estudo de caso explanatório. A evidência sobre o caso da NCG nos hospitais públicos portugueses foi recolhida em documentos e através de 58 entrevistas realizadas em 47 unidades de análise (nos serviços centrais de contabilidade do Ministério da Saúde e em 46 hospitais públicos, num total de 53 existentes). Quanto aos principais resultados obtidos, no período 1954-1974, as regras criadas pelo poder político para controlo dos gastos públicos e a contabilidade orçamental de base de caixa estiveram na génese dos primeiros conceitos de Contabilidade de Gestão (CG) para os serviços públicos de saúde portugueses. A transição de um regime ditatorial para um regime democrático (25 de Abril de 1974), a criação do Plano Oficial de Contabilidade (POC/77) e a implementação de um estado social com Serviço Nacional de Saúde (SNS) criaram a conjuntura crítica necessária para o surgimento de um Plano Oficial de Contabilidade para os Serviços de Saúde (POCSS/80) que incluiu regras de CG. A primeira edição do Plano de Contabilidade Analítica dos Hospitais (PCAH), aprovada em 1996, não foi uma construção de raiz, mas antes uma adaptação para os hospitais das regras de CG incluídas no POCSS/91 que havia revisto o POCSS/80. Após o início da implementação do PCAH, em 1998, ocorreram sequências de autorreforço institucionalizadoras destas normas, no período 1998-2011, por influência de pressões isomórficas coercivas que delinearam um processo de evolução incremental cujo resultado foi uma reprodução por adaptação, num contexto de dependência de recursos. Vários agentes internos e externos pressionaram, no período 2003-2011, através de sequências reativas para a desinstitucionalização do PCAH em resposta ao persistente fenómeno de loose coupling. Mas o PCAH só foi descontinuado nos hospitais com privatização da governação e rejeição dos anteriores sistemas de informação. Ao nível da extensão da teoria, este estudo de caso adotou o institucionalismo histórico na investigação em CG, quanto se sabe pela primeira vez, que se mostra útil na interpretação dos processos e dos resultados da criação e evolução de instituições de CG num determinado contexto histórico. Na condição de dependência de recursos, as sequências de autorreforço, via isomorfismo coercivo, tendem para uma institucionalização com fenómeno de loose coupling. Como resposta a este fenómeno, ocorrem sequências reativas no sentido da desinstitucionalização. Perante as pressões (políticas, funcionais, sociais e tecnológicas) desinstitucionalizadoras, o fator governação privada acelera o processo de desinstitucionalização, enquanto o fator governação pública impede ou abranda esse processo.
Resumo:
[Excerpt] Bioethanol from lignocellulosic materials (LCM), also called second generation bioethanol, is considered a promising alternative to first generation bioethanol. An efficient production process of lignocellulosic bioethanol involves an effective pretreatment of LCM to improve the accessibility of cellulose and thus enhance the enzymatic saccharification. One interesting approach is to use the whole slurry from treatment, since allows economical and industrial benefits: washing steps are avoided, water consumption is lower and the sugars from liquid phase can be used, increasing ethanol concentration [1]. However, during the pretreatment step some compounds (such as furans, phenolic compounds and weak acids) are produced. These compounds have an inhibitory effect on the microorganisms used for hydrolysate fermentation [2]. To overcome this, the use of a robust industrial strain together with agro-industrial by-products as nutritional supplementation was proposed to increase the ethanol productivities and yields. (...)
Resumo:
Dissertação de mestrado em Sociologia (área de especialização em Organizações e Trabalho)
Resumo:
OBJECTIVE: This study was performed to observe the number of pacemakers that had never been reprogrammed after implantation, and the effect of optimised output programming on estimated longevity of pulse generators in patients with pacemaker METHODS: Sixty patients with Teletronics Reflex pacemakers were evaluated in a pacemaker clinic, from the time of the beginning of its activities, in June 1998, until March 1999. Telemetry was performed during the first clinic visit, and we observed how many pulse generators retained nominal output settings of the manufactures indicating the absence of reprogramming until that date. After evaluation of the capture threshold, reprogramming of pacemakers was performed with a safety margin of 2 to 2.5:1, and we compared the estimated longevity based on battery current at the manufacturer's settings with that based on settings achieved after reprogramming. RESULTS: In 95% of the cases, the original programmed setting was never reprogrammed before the patients attended the pacemaker clinic. Reprogramming the pacemaker prolonged estimated pulse generator life by 19.7±15.6 months (35.5%). CONCLUSION: The majority of the pacemakers evaluated had never been reprogrammed. Estimated pulse generator longevity can be prolonged significantly, using this simple, safe, efficacious, and cost-effective procedure.
Resumo:
Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad. This project is about using type theory to garantee program correctness. It follows three different directions: 1) Finding new type-checking algorithms based on normalization by evaluation. First, we would show that recent results like [16,17] extend to other type systems like: Martin-Löf´s type theory without eta rule, PTSs, type systems with variables (in addition to systems in [16,17] which are a la de Bruijn), systems with rewrite rules. This will be done by adjusting the proofs in [16,17] so that they apply to such systems as well. We will also try to obtain a more general definition of categories with families and normalization by evaluation, formulated in categorical terms. We expect this may turn proof-assistants more automatic and useful. 2) Exploring the proposal in [22] to compiler construction for Algol-like languages using functorial categories. According to [22] such approach is suitable for verifying compiler correctness, claim which was never explored. First, the language Peal [29] will be certified in type theory and we will gradually add funtionality to it until a correct compiler for the language Forsythe [23] is obtained. 3) Formilizing systems for session types. Several proposals have shown to be faulty [30]. This means that a formalization of it may contribute to the general understanding of session types.
Resumo:
3
Resumo:
2