969 resultados para Ramon
Resumo:
Under the assumption that c is a regular cardinal, we prove the existence and uniqueness of a Boolean algebra B of size c defined by sharing the main structural properties that P(omega)/fin has under CH and in the N(2)-Cohen model. We prove a similar result in the category of Banach spaces. (C) 2011 Elsevier B.V. All rights reserved.
Resumo:
In the Eplerenone Post-Acute Myocardial Infarction Heart Failure Efficacy and Survival Study ( n = 6632), eplerenone- associated reduction in all- cause mortality was significantly greater in those with a history of hypertension ( Hx- HTN). There were 4007 patients with Hx- HTN ( eplerenone: n = 1983) and 2625 patients without Hx- HTN ( eplerenone: n = 1336). Propensity scores for eplerenone use, separately calculated for patients with and without Hx- HTN, were used to assemble matched cohorts of 1838 and 1176 pairs of patients. In patients with Hx- HTN, all- cause mortality occurred in 18% of patients treated with placebo ( rate, 1430/ 10 000 person- years) and 14% of patients treated with eplerenone ( rate, 1058/ 10 000 person- years) during 2350 and 2457 years of follow- up, respectively ( hazard ratio [ HR]: 0.71; 95% CI: 0.59 to 0.85; P < 0.0001). Composite end point of cardiovascular hospitalization or cardiovascular mortality occurred in 33% of placebo-treated patients ( 3029/ 10 000 person- years) and 28% of eplerenone- treated patients (2438/10 000 person- years) with Hx- HTN ( HR: 0.82; 95% CI: 0.72 to 0.94; P = 0.003). In patients without Hx- HTN, eplerenone reduced heart failure hospitalization ( HR: 73; 95% CI: 0.55 to 0.97; P = 0.028) but had no effect on mortality ( HR: 0.91; 95% CI: 0.72 to 1.15; P = 0.435) or on the composite end point ( HR: 0.91; 95% CI: 0.76 to 1.10; P = 0.331). Eplerenone should, therefore, be prescribed to all of the post - acute myocardial infarction patients with reduced left ventricular ejection fraction and heart failure regardless of Hx- HTN.
Resumo:
This work is aimed at studying the adsorption mechanism of short chain 20-mer pyrimidinic homoss-DNA (oligodeoxyribonucleotide, ODN: polyC(20) and polyT(20)) onto CNT by reflectometry. To analyze the experimental data, the effective-medium theory using the Bruggemann approximation represents a Suitable optical model to account for the surface properties (roughness, thickness, and optical constants) and the size of the adsorbate. Systematic information about the involved interactions is obtained by changing the physicochemical properties of the system. Hydrophobic and electrostatic interactions are evaluated by comparing the adsorption oil hydrophobic CNT and oil hydrophilic silica and by Modulating the ionic Strength With and without Mg(2+). The ODN adsorption process oil CNT is driven by hydrophobic interactions only when the electrostatic repulsion is Suppressed. The adsorption mode results in ODN molecules in a side-on orientation with the bases (nonpolar region) toward the surface. This unfavorable orientation is partially reverse by adding Mg(2+). On the other hand, the adsorption oil silica is dominated by the strong repulsive electrostatic interaction that is screened at high ionic strength or mediated by Mg(2+). The cation-mediated process induces the interaction of the phosphate backbone (polar region) with the surface, leaving the bases free for hybridization. Although the general adsorption behavior of the pyrimidine bases is the same, polyC(20) presents higher affinity for the CNT Surface due to its acid-base properties.
Resumo:
A versatile and metal-free approach for the synthesis of molecules bearing seven- and eight-membered rings is described. The strategy is based on the ring expansion of 1-vinylcycloalkanols (or the corresponding silyl or methyl ether) mediated by the hypervalent iodine reagent HTIB (Phl(OH)OTs). The reaction condition can be easily adjusted to give seven-membered rings bearing different functional groups. A route to medium-ring lactones was also developed.
Resumo:
Tetrahydrofuran derivatives can be obtained by cyclo-functionalization of homoallylic alcohols bearing a terminal double bound by using [hydroxy(tosyloxy)iodo]benzene (HTIB, Koser`s reagent) in the presence of a catalytic amount of 12 (20 mol %) in MeOH under mild conditions. This transformation is an overall 5-endo-trig cyclization, which occurs by two different pathways. The first is a 4-exo-trig cyclization followed by ring expansion, whereas the second is an electrophilic addition followed by a 5-endo-tet cyclization.
Resumo:
Tuberculosis (TB) is one of the most common infectious diseases known to man and responsible for millions of human deaths in the world. The increasing incidence of TB in developing countries, the proliferation of multidrug resistant strains, and the absence of resources for treatment have highlighted the need of developing new drugs against TB. The shikimate pathway leads to the biosynthesis of chorismate, a precursor of aromatic amino acids. This pathway is absent from mammals and shown to be essential for the survival of Mycobacterium tuberculosis, the causative agent of TB. Accordingly, enzymes of aromatic amino acid biosynthesis pathway represent promising targets for structure-based drug design. The first reaction in phenylalanine biosynthesis involves the conversion of chorismate to prephenate, catalyzed by chorismate mutase. The second reaction is catalyzed by prephenate dehydratase (PDT) and involves decarboxylation and dehydratation of prephenate to form phenylpyruvate, the precursor of phenylalanine. Here, we describe utilization of different techniques to infer the structure of M. tuberculosis PDT (MtbPDT) in solution. Small angle X-ray scattering and ultracentrifugation analysis showed that the protein oligomeric state is a tetramer and MtbPDT is a flat disk protein. Bioinformatics tools were used to infer the structure of MtbPDT A molecular model for MtbPDT is presented and molecular dynamics simulations indicate that MtbPDT i.s stable. Experimental and molecular modeling results were in agreement and provide evidence for a tetrameric state of MtbPDT in solution.
Resumo:
Drinking water utilities in urban areas are focused on finding smart solutions facing new challenges in their real-time operation because of limited water resources, intensive energy requirements, a growing population, a costly and ageing infrastructure, increasingly stringent regulations, and increased attention towards the environmental impact of water use. Such challenges force water managers to monitor and control not only water supply and distribution, but also consumer demand. This paper presents and discusses novel methodologies and procedures towards an integrated water resource management system based on advanced ICT technologies of automation and telecommunications for largely improving the efficiency of drinking water networks (DWN) in terms of water use, energy consumption, water loss minimization, and water quality guarantees. In particular, the paper addresses the first results of the European project EFFINET (FP7-ICT2011-8-318556) devoted to the monitoring and control of the DWN in Barcelona (Spain). Results are split in two levels according to different management objectives: (i) the monitoring level is concerned with all the aspects involved in the observation of the current state of a system and the detection/diagnosis of abnormal situations. It is achieved through sensors and communications technology, together with mathematical models; (ii) the control level is concerned with computing the best suitable and admissible control strategies for network actuators as to optimize a given set of operational goals related to the performance of the overall system. This level covers the network control (optimal management of water and energy) and the demand management (smart metering, efficient supply). The consideration of the Barcelona DWN as the case study will allow to prove the general applicability of the proposed integrated ICT solutions and their effectiveness in the management of DWN, with considerable savings of electricity costs and reduced water loss while ensuring the high European standards of water quality to citizens.
Resumo:
Demands are one of the most uncertain parameters in a water distribution network model. A good calibration of the model demands leads to better solutions when using the model for any purpose. A demand pattern calibration methodology that uses a priori information has been developed for calibrating the behaviour of demand groups. Generally, the behaviours of demands in cities are mixed all over the network, contrary to smaller villages where demands are clearly sectorised in residential neighbourhoods, commercial zones and industrial sectors. Demand pattern calibration has a final use for leakage detection and isolation. Detecting a leakage in a pattern that covers nodes spread all over the network makes the isolation unfeasible. Besides, demands in the same zone may be more similar due to the common pressure of the area rather than for the type of contract. For this reason, the demand pattern calibration methodology is applied to a real network with synthetic non-geographic demands for calibrating geographic demand patterns. The results are compared with a previous work where the calibrated patterns were also non-geographic.
Resumo:
O objetivo do trabalho é entender o que aconteceu com o monetarismo. Em menos de 50 anos a escola surgiu, consolidou-se, atingiu seu ápice e depois foi sendo deixada de lado a medida que as proposições monetaristas começaram a perder aderência com a realidade. Este processo de ascensão e queda é o que motiva a dissertação. Nesse sentido, a contribuição do texto é identificar o que a teoria econômica pensa em relação ao monetarismo, testando a hipótese de se foi o amplo corpo teórico monetarista que fracassou ou se foram específicos postulados da escola que se mostraram inválidos, por meio da investigação de vários textos de mais de um século de teoria econômica. A conclusão alcançada é que a partir do fracasso da adoção da proposição monetarista de crescimento constante do estoque de moeda como forma de conduzir a política monetária estabilizadora, o papel de destaque que a escola atribuía à moeda passou a ser questionado. Mesmo assim, a base das proposições monetaristas se manteve, mostrando que a escola e seu corpo teórico não fracassaram.
Resumo:
A América Latina é a região com mais elevado nível de desigualdade de renda do mundo. Nos anos 90, a discussão acerca da relação entre crescimento econômico e desigualdade de renda é retomada com mais intensidade em virtude do desempenho econômico com equidade apresentado pelos países do Leste Asiático. Parte da literatura encontra que a desigualdade de renda afeta negativamente o desempenho econômico do países. Partindo desse resultado, ela busca os canais pelos quais essa relação de daria. No entanto, no final dos anos 90, outro conjunto de estudos passa a questionar tal resultado, com o uso de dados de melhor qualidade para a distribuição de renda, bem como outras técnicas econométricas. A partir daí, o foco da dissertação será a avaliação da relação entre crescimento econômico e desigualdade de renda para um conjunto menor de países. E avaliamos também, a possibilidade de verificarmos a hipótese da curva de Kuznets para a região. A análise econométrica, seguindo os moldes da literatura mais recente, foi desenvolvida com base em um painel de 13 países latino-americanos no período entre 1970 e 1995, considerando sub-períodos de 5 anos. O exercício empírico revelou que os resultados encontrados na dissertação estão na linha dos trabalhos mais recentes na área e confirmam, para um conjunto menor de países, especificamente da América Latina, a relação positiva que há entre desigualdade e crescimento e a hipótese de Kuznets.
Resumo:
Esta tese é uma discussão crítica, sob a ótica da formação de expectativas, da relação que se interpõe entre ciência econômica, como corpo de conhecimento, e seus agentes. Primeiro, examinamos abordagens relevantes sobre expectativas na análise econômica, indicando suas insuficiências. Argumentamos que a incorporação de expectativa, em qualquer tratamento analítico, deve envolver, principalmente, fundamentos epistêmicos. Segundo, sob a perspectiva da teoria de modernidade reflexiva desenvolvida por Anthony Giddens, buscamos identificar bases plausíveis para uma teoria de expectativa econômica. Concluímos que o processo de formação de expectativa é construção social, a partir da interdependência entre expertos e leigos. Denominamos esta conclusão por hipótese de expectativas socialmente construídas (HESC). Terceiro, propusemos um arcabouço analítico para incorporar a HESC. Basicamente, informação de expectativa se difunde através da mídia e do contato face a face entre agentes. Nova informação não resulta necessariamente em revisão de expectativas, o que vai depender, principalmente, de conhecimento econômico e vizinhança do agente. Por último, um exemplo de aplicação: o modelo-HESC foi submetido a três experimentos macroeconômicos, e seus resultados comparados àqueles obtidos por Mankiw e Reis (2002). A primeira conclusão desta tese é metodológica: expectativas dos agentes em modelos macroeconômicos não são determinadas a partir de equações do próprio modelo. A segunda é normativa: conhecimento e vizinhança são capazes de perpetuar ineficiências decorrentes de erros de expectativas. A terceira está relacionado com economia positiva: as diferenças entre os resultados do modelo de informação-rígida obtidos pelos autores acima e aqueles do modelo-HESC apontam para novas possibilidades explanatórias.
Resumo:
Decisões humanas foram a preocupação central de Herbert Simon em sua vasta produção acadêmica através da qual difundiu sua abordagem de racionalidade limitada pela economia. O reconhecimento do ambiente complexo e dos limites cognitivos do ser humano, levaram-no a propor mecanismos usados para facilitar o processo decisório. Dentre eles, salientou como o mais importante o uso de heurísticas, regras que simplificam a tomada de decisão. Em torno dessa ideia um novo e promissor caminho para o estudo das decisões humanas em economia tem se desenvolvido e inúmeros trabalhos têm se debruçado sobre o assunto. Mais atualmente o tema remete ao trabalho de Daniel Kahneman e Amos Tversky que analisaram comportamentos anômalos em relação à teoria da decisão mais tradicional devido ao uso de heurísticas. Essa abordagem chamada de heuristics and biases ganhou um grande espaço na academia sendo utilizada na análise de muitos eventos empíricos na administração, direito, economia e medicina. A presente tese está estruturada em três artigos. O primeiro artigo trata do uso de heurística na análise do comportamento do agente econômico a partir da contribuição de Simon, Kahneman e Tversky. A apresentação de críticas feitas às duas propostas jogam luz sobre o debate em torno de questões quanto a possível relação entre elas. A partir da análise da literatura, este trabalho propõe uma complementaridade promissora para a economia com a construção de uma teoria comportamental em torno de heurísticas. No segundo artigo, as contribuições de Herbert Simon, Daniel Kahneman e Amos Tversky são utilizadas na análise do comportamento do consumidor. Através de um modelo de simulação baseada em agentes são comparadas cinco heurísticas que representam diferentes regras utilizadas pelo consumidor na decisão de compra: Menor preço de 3, 4 e 5 alternativas pesquisadas, Take-The-Best (TTB), proposta por Gigerenzer e Goldstein, e Time-Is-Money (TIM). Os resultados obtidos se afastam da maximização mas podem ser interpretados como eficientes em função da redução do esforço de pesquisa e do preço obtido. Duas heurísticas mostram grande eficiência: a Menor preço de 3 alternativas e a TTB. A inclusão de custo crescente de pesquisa na análise torna muito eficientes os resultados da TIM e chama a atenção para a relevância da definição de custo na avaliação da eficiência da heurística. O terceiro artigo discute um mecanismo de adaptação do comportamento que objetiva melhorias do resultado obtido com a decisão. Através de simulação baseada em agentes são modelados consumidores de bens homogêneos que utilizam heurísticas para decidir sua compra. É desenvolvida uma heurística, a Take-The-Best adaptaviva (TTBA), que incorpora uma proposta de Simon de um mecanismo de adaptação como reação a performances recentes que pode alterar a aspiração em relação aos resultados futuros e, dessa forma, definir a extensão da pesquisa por alternativas. Os resultados alcançados com o uso da TTBA são comparados a três outras heurísticas: Procura Randômica, Menor de 3 alternativas e Take-The-Best (TTB). A simulação mostrou que a Menor de 3 continua obtendo bons resultados e que a incorporação à TTB do mecanismo de adaptação gera eficiência à TTBA.
Resumo:
o objetivo deste estudo foi explorar a relação existente entre a li teratura sobre procedimentos de auditoria de PED e os procedimentos efetivamente utilizados pelas seis empresas de auditoria contábil no Brasil. Bus cou-se identificar a diferença entre os procedimentos de auditoria de PED utilizados pelas empresas nacionais e os utilizados pelas empresas de ori gem estrangei ra (Capitulo I). Na revisão de literatura, apresentam-se os atuais conhecimentos so bre a auditoria externa em empresas que utilizam sistemas complexos de com putador e as perspectivas previsiveis para o futuro (Capltulo 11). A seguir, apresenta-se a metodologia utilizada, justificando-se as razões de seu emprego neste tipo de estudo exploratório (Capltulo lU). Entrevistas utilizando um questionário contendo,em sua maioria, que~ tões abertas, possibilitaram uma descrição dos procedimentos de auditoria externa empregados pelas empresas de auditoria em clientes que utilizam computador (Capitulo IV). Os resultados obtidos possibilitaram uma análise dos procedimentos de auditoria de PED utilizados pelas seis empresas de auditoria pesquis~ das (Capitulo V). Finalmente, relacionando-se os resultados ã literatura existente, sao apresentadas conclusões, formuladas recomendações e sugeridos novos es tudos (Capitulo VI).
Resumo:
O presente estudo tem um duplo objetivo: (i) analisar os determinantes da escolha das firmas por um modelo de franchising na estratégia de expansão de seus negócios, e (ii) analisar como os termos de um contrato de franchising podem potencialmente ser influenciados por questões relativas a compartilhamento de risco, problemas de incentivo relacionados ao risco moral (moral hazard) e restrições de recursos financeiros. Essa discussão se dará seguindo a abordagem empírica proposta por Lafontaine (1992). Os modelos são estimados a partir de dados para uma amostra de 350 redes de franquias brasileiras relativas ao ano de 2011. Os resultados sugerem que a definição do valor da taxa de royalties leva em conta os problemas decorrentes do risco moral por parte dos franqueados e do compartilhamento de risco. Em particular, nos negócios onde o esforço dos franqueados afeta significativamente a provisão dos serviços prestados, observa-se uma tendência de cobrança de menores taxas de royalties e uma relação positiva entre risco e incentivos, com a cobrança de menores taxas de royalties em setores de atividade com maior risco. Em relação ao percentual de unidades franqueadas, obteve-se resultados coerentes com a expectativa teórica para o problema de risco moral do franqueado, de modo que quanto mais importante o trabalho do agente, maior o índice. Entretanto, para a restrição de capital, contrário a expectativa teórica, quanto maior a disponibilidade de recursos maior o número de franquias.
Resumo:
Neste trabalho buscamos identificar os principais determinantes da demanda por fundos de investimento no Brasil através do modelo Logit, que é bastante utilizado na teoria das organizações industriais. Sempre que possível realizamos “links” com os principais conceitos de finanças comportamentais. Assim, conseguimos aclarar as principais variáveis que impactam as variações de “market-share” na indústria de fundos de investimento. Concluímos que os principais indicadores observados pelos investidores no momento de tomada de decisão são o CDI, a inflação, a taxa real de juros, a variação do dólar e da bolsa de valores, por outro lado a rentabilidade acumulada dos últimos três meses é fator decisivo para que o investidor aplique ou resgate um fundo de investimento. Variáveis de risco e de retorno esperado que imaginávamos ter forte impacto, não se mostraram significativas para as variações de “share”.