927 resultados para Fluxo de seiva
Resumo:
As alternativas terapêuticas, atualmente oferecidas para o tratamento da cardiopatia isquêmica, concentram-se na abordagem das propriedades da vasculatura coronariana e seus elementos circulatórios. Dentre essas, incluem-se drogas que inibem o desenvolvimento da aterosclerose, estabilizam as lesões pré-existentes, drogas que reduzem a trombose intracoronaria, diminuem o consumo de oxigênio pelo miocárdio e intervenções que restabelecem o fluxo coronariano. No entanto, esse arsenal terapêutico se torna deficiente, em relação aos agentes cardioprotetores diretos, que têm como alvo o metabolismo das células miocárdicas. Novas terapias têm sido propostas, para diminuir a repercussão celular da isquemia, protegendo as células miocárdica das conseqüências prejudiciais do fenômeno da reperfusão, ou lesão de reperfusão, desencadeada principalmente pela ativação da glicoproteina trocadora de Na+/H+ (NHE). Essa glicoproteína tem como principal função manter a estabilidade do pH das células miocárdicas durante a isquemia, podendo de forma paradoxal precipitar necrose celular durante a reperfusão, através do acúmulo de cálcio intracelular. Dos agentes cardioprotetores com capacidade de inibir a NHE, a amilorida foi a primeira droga que mostrou essa propriedade. Recentemente, outras mais potentes surgiram, como cariporide, eniporide e zoniporide, atualmente sendo avaliadas através de ensaios clínicos. Nesta revisão, analisaremos os mecanismos envolvidos na lesão de reperfusão a nível celular e a participação da inibição NHE na proteção miocárdica. Também, revisaremos os principais estudos clínicos envolvendo os inibidores da NHE-1 e sua aplicabilidade potencial.
Resumo:
Esta dissertação procura promover uma análise da mudança de regimes na volatilidade condicional do risco Brasil, após a implementação do Real, com ênfase nas mudanças markovianas de regimes. De acordo com a literatura de risco país, na presença de equilíbrios múltiplos e profecias auto-realizáveis, a deterioração dos fundamentos percebidos de um país é condição necessária para a determinação de um equilíbrio macroeconômico ruim de uma pequena economia aberta e em desenvolvimento (PEAD), com reversão de capitais, alto serviço da dívida pública, perspectivas sombrias de crescimento e uma avaliação do crédito como ruim (Razin & Sadka, 2001). Ainda que tal condição seja necessária, ela não parece ser suficiente para explicar por que, em alguns momentos, apesar de um nível alto de risco país, o equilíbrio tido como ruim não se materializa. Neste sentido, através da adaptação de um jogo típico de modelos de crises cambiais de segunda geração, esta dissertação lança a hipótese de que uma das razões pelas quais uma PEAD sofra tais crises de liquidez seja a deterioração da média dos fundamentos percebidos ao lado do aumento do medo dos investidores de que haja interrupções no fluxo de capitais. A metodologia utilizada é a dos modelos GARCH nãolineares com componentes observáveis e não observáveis markovianos, aplicados à série diária do risco país do Brasil entre maio de 1994 a setembro de 2002. Os resultados empíricos sugerem que, de fato, durante os episódios de crise de liquidez do Brasil, o risco país sobe e a volatilidade muda para um regime mais alto. Em contrapartida, nos períodos com regimes baixos de volatilidade, independentemente do nível do risco país, nenhuma crise severa e repentina atinge o país. Além disso, ainda que não desprovida de limitações, a análise da volatilidade condicional do risco país pode servir como um instrumento prático de monitoramento da duração de crises de liquidez para uma PEAD altamente dependente do influxo de capitais externos como o Brasil.
Resumo:
Identifica-se que a aplicação de técnicas estatísticas e financeiras nos modelos para a tomada de decisão dos investimentos de marketing se apresenta muito abaixo de seu potencial. O modelo do Valor do Cliente e o cálculo do Valor Vitalício do Cliente vêm ganhando destaque como referência bibliográfica no tema, provocando discussão nos meios acadêmicos e empresariais em torno de como projetar o fluxo de caixa futuro descontado, gerado por um cliente durante o tempo que manterá relacionamento comercial com a empresa. Apesar de na literatura acadêmica existirem diversos artigos descrevendo o cálculo do Valor do Cliente, poucos sugerem técnicas estatísticas e estimadores que poderiam ser úteis para este fim. O modelo de cálculo usado como referência neste estudo propõe uma combinação original envolvendo as técnicas de análise de sobrevivência com modelos lineares hierárquicos. Nesta tese será demonstrado como os Modelos Lineares Hierárquicos podem ser utilizados como uma importante ferramenta para entender, explicar e prever a margem de contribuição gerada por um cliente. Essa técnica recentemente passou a ser utilizada como ferramenta nas questões relacionadas à Administração de Empresas e ainda não foi aplicada no cálculo do Valor Vitalício do Cliente. Entre outras vantagens, a técnica permite levar em consideração, no cálculo, tanto as características individuais de cada cliente, quanto à tendência da margem gerada por ele ao longo do tempo. A Análise de Sobrevivência foi utilizada para modelar a probabilidade de um cliente manter o relacionamento comercial com a Administradora. Na tentativa de contribuir para o tema, este estudo desenvolveu uma aplicação a partir da modelagem desenvolvida por Cox (1972). Essa metodologia também permite estimar o comportamento do cliente levando em conta suas características individuais. Como ilustração, o modelo será aplicado em uma das cinco principais Administradoras de Cartões de Crédito do Brasil. Vale observar que o mesmo modelo poderia ser aplicado em outras indústrias com características semelhantes, como telefonia, provedores de internet, bancos e financeiras. Dada a natureza exploratória do estudo, suas conclusões se restringem à análise da amostra; entretanto, elas podem se constituir em um ponto de partida para outras pesquisas mais aprofundadas.
Resumo:
Este estudo teve como objetivo comparar a saúde bucal de pacientes, portadores de problemas respiratórios que se tratavam com medicações alopáticas e homeopáticas, no mínimo por dois anos. Foram examinados 90 pacientes com idades de 6 a 14 anos, emparelhados por sexo e idade, representando um estudo analítico observacional, semelhante aos de caso-controle. Os índices utilizados para avaliar a saúde bucal foram: CPO-S e ceo-s (Índices de superfícies cariadas, perdidas e obturadas), IP (Índice de placa), IG (Índice gengival) e, ainda, VFS (Velocidade do fluxo salivar) e CTS (Capacidade tampão salivar). Foi realizado um questionário sobre os hábitos de higiene, alimentação e condição geral de saúde, assim como sobre as condições socioeconômicas das famílias. Os Graus de instrução dos responsáveis (P= 0,007), a Escola do tipo particular (P< 0,000) em que os participantes estudavam mostraram-se associados, significativamente, ao grupo que utilizava Homeopatia, mas a Renda familiar não apresentou diferença entre os dois grupos (P=0,456). Este grupo mostrou-se, também, estatisticamente mais saudável quanto aos índices de saúde bucal (CPO-S, ceo-s, IP e IG, com P<0,05) em análises bivariadas pelos testes “t” de Student e U de Mann Whitney. A Velocidade do fluxo salivar foi significativamente maior apenas pelo teste U de Mann Whitney (P= 0,015). Ao serem comparados por testes multivariados, em que a variável Grau de instrução dos pais foi controlada, as diferenças significativas entre os tratamentos se mantiveram para todas as variáveis com exceção do CPO-S. A análise de regressão logística que foi usada para comparar os tratamentos quanto ao Perfil de saúde bucal, variável criada a partir das variáveis CPO-S, ceo-s, IP e IG, evidenciou que o tratamento homeopático é fator de proteção à saúde bucal (Odds Ratio=28,02). Quando na comparação foram associadas as variáveis, Grau de instrução dos pais apresentou Odds Ratio=23,26 e ao incluir o tipo de escola em que os pacientes estudavam o Odds Ratio foi de 19,23, todos valores sendo significativos. Através das análises realizadas, não se encontraram semelhanças quanto à saúde bucal dos dois grupos examinados, tendo o grupo homeopatizado melhor condição bucal. Novos estudos são recomendados, procurando comparar estes tratamentos em outros grupos.
Resumo:
Em ambientes de mercados de capitais imperfeitos, as decisões de investimento das empresas em ativo fixo são sensíveis à disponibilidade de recursos internos (a chamada sensibilidade investimento fluxo de caixa), em vez de somente depender da disponibilidade de projetos com valor presente líquido positivo. Isso ocorre porque os recursos internos apresentam menor custo em relação aos recursos externos (chama-se esse diferencial de custo de restrições financeiras). Este estudo expõe os principais conceitos, a base intuitiva de alguns modelos e o debate que atualmente ocorre na literatura com relação ao tema: os resultados empíricos apresentam divergências quanto à influência das restrições financeiras na sensibilidade do investimento a variações da disponibilidade de recursos internos (fluxo de caixa). Utilizando a metodologia de CLEARY (1999), ainda não testada no Brasil, este trabalho investiga empiricamente a relação entre restrições financeiras e a sensibilidade investimento fluxo de caixa das empresas no Brasil no período de 1992 a 2001, introduzindo uma nova medida para o investimento total. A principal conclusão com a amostra deste estudo, considerando os modelos de investimento total, é a de que as empresas com menores restrições financeiras apresentam sensibilidade investimento fluxo de caixa, mas nas empresas com maiores restrições o mesmo não ocorre. Uma possível explicação para isso é que tais empresas apresentam fortes problemas financeiros e possivelmente estejam em uma situação em que apenas os investimentos absolutamente essenciais continuem sendo feitos.
Resumo:
Aborda características organizacionais que operam cmo condições críticas para a implantação de sistemas de custo hospitalar. Destaca como determinadas condições internas às organizações afetam o processo de implementação, gestão e utilização dos sitemas de custos como instrumento de tomada de decisão na gestão hospitalar. Com base nos resultados de dois estudos de casos do munícípio de São Paulo, identificou-se que, tanto no setro público quanto no privado , a efetiva gestão de custos no segmento hospitalar parece estar condicionada a características relacionadas ao grau de implementação de sistemas de custo, à dinâmica do fluxo de informação e à utilização de sistemas informatizados
Resumo:
This thesis presents DCE, or Dynamic Conditional Execution, as an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a result, a smaller number of predictions is performed, and therefore, a lesser number of branches are mispredicted. DCE fetches through selected branches avoiding disruptions in the fetch flow when these branches are fetched. Both paths of selected branches are executed but only the correct path commits. In this thesis we propose an architecture to execute multiple paths of selected branches. Branches are selected based on the size and other conditions. Simple and complex branches can be dynamically predicated without requiring a special instruction set nor special compiler optimizations. Furthermore, a technique to reduce part of the overhead generated by the execution of multiple paths is proposed. The performance achieved reaches levels of up to 12% when comparing a Local predictor used in DCE against a Global predictor used in the reference machine. When both machines use a Local predictor, the speedup is increased by an average of 3-3.5%.
Resumo:
O estudo aqui apresentado aborda um assunto que tem emergido em importância na última década: a valoração de empresas, em razão da ampliação das relações globais entre os países e entre suas próprias organizações, na busca por novos mercados, que conjugados a uma política de redução do tamanho do estado, através da implementação de programas de privatização, de fusão, de aquisição e de incorporação forçaram o surgimento de novos estudos nesse campo do conhecimento, para tornar possível a operacionalização dessas ações. A proeminência do estudo, no entanto, centra-se na revisão teórica e na aplicação em um caso prático de modelos tradicionais de análise e avaliação, como os modelos de fluxo de caixa descontado (DCF), comparando-os com os resultados obtidos através da aplicação de modelos mais complexos que consigam melhor captar o valor da flexibilidade inerentes à avaliação, em empresas de mercados emergentes e em projetos de longa maturação, onde a incerteza constitui-se em variável importante no processo de avaliação, como é o caso dos modelos baseados em árvores de decisão ou de opções reais. A empresa escolhida foi a Aracruz Celulose S/A, que, por suas características, enquadrou-se dentro dos objetivos propostos por este estudo. O desenrolar do trabalho conduzirá à conclusão de que os valores empresariais encontrados não podem ser tidos como determinísticos ou incontestáveis, uma vez que os processos avaliativos por mais complexa que seja sua estruturação são baseados em estimativas, fazendo com que seus resultados delas sejam decorrentes. Assim, os ruídos existentes nos processos de avaliação de maneira geral estão em maior grau relacionados com às próprias perspectivas de desempenho futuro da empresa avaliada do que efetivamente à qualidade do modelo que se está utilizando.
Resumo:
Foram analisadas empiricamente as motivações envolvidas na definição da política de distribuição das empresas brasileiras, avaliando-se como é feita a escolha entre os seus instrumentos: dividendos, juros sobre capital próprio (JSCP) e recompra de ações. A amostra foi constituída das empresas listadas na Bolsa de Valores de São Paulo, no período de 2000 a 2005. Encontramos que a existência de fluxo de caixa, a estabilidade desses fluxos, o não comprometimento com endividamento, a preocupação com a governança coorporativa e a existência de poucas oportunidades de investimento são fatores que levam as empresas a distribuírem a maior parte dos seus lucros na forma de dividendos e/ou juros sobre capital próprio. Embora os JSCP sejam mais vantajosos como forma de distribuição do que os dividendos, muitas empresas que possuem disponibilidade não os utilizam, o que leva à destruição de valor. As empresas que mais distribuem JSCP são as mais antigas na Bolsa de Valores, e que possuem os maiores payouts. As recompras de ações são utilizadas como complemento aos dividendos, quando as ações possuem liquidez e não é certo que a distribuição seja sustentável no futuro, propiciando flexibilidade financeira.
Resumo:
Sistemas Gerenciadores de Workflow (SGWf) têm atraído muita atenção nos últimos anos, por serem baseados em um modelo simples que permite definir, executar e monitorar a execução de processos. Mas este esquema é um tanto quanto rígido e inflexível, apresentando alguns problemas quando da necessidade de sua utilização no controle de processos com características cooperativas, em que o comportamento humano deve ser levado em conta. Este tipo de processo deve apresentar uma certa flexibilidade de forma a possibilitar a troca de resultados entre tarefas, acabando com a dependência fim-início existente entre tarefas seqüenciais nos SGWfs tradicionais. A fim de possibilitar este tipo de comportamento, surge a antecipação de tarefas, que tem por objetivo oferecer meios de flexibilizar o fluxo de controle e o fluxo de dados para permitir que tarefas possam ser disparadas antes mesmo da conclusão de suas antecessoras. A antecipação implica no aumento da cooperação entre tarefas e em melhor desempenho com relação ao tempo de execução dos processos. O aumento na cooperação está relacionado diretamente à troca de resultados, permitindo que duas ou mais tarefas trabalhem sobre instâncias de um determinado dado que ainda está sendo produzido. O melhor desempenho deve-se ao paralelismo (parcial) criado entre tarefas que deveriam executar de maneira estritamente seqüencial, devido ao disparo das tarefas antes do previsto. Este trabalho então, apresenta um estudo das abordagens de flexibilização de SGWfs, visando encontrar maneiras de prover antecipação de tarefas. O principal objetivo do trabalho é verificar a melhoria de desempenho em termos de tempo de execução dos processos que se pode obter utilizando a antecipação de tarefas Para tal, foi desenvolvido um simulador que suporta a antecipação de tarefas e foram conduzidas simulações, que mostraram os ganhos e alguns padrões de comportamento da utilização da antecipação de tarefas. Para possibilitar o uso da antecipação em processos reais foram realizadas alterações na ferramenta de definição de processos Amaya Workflow e na máquina de workflow do projeto CEMT.
Resumo:
O acoplamento de radiação óptica em sistemas multicamadas tem sido objeto de diversas pesquisas, não somente acadêmicas, mas também para aplicações industriais, tanto na área de sensores ópticos, como na de processadores ópticos e na de comunicações ópticas. Existe uma variedade de técnicas que são exploradas nestes estudos. Nesta tese, focalizamos nossa atenção no acoplamento de radiação laser ou mesmo de luz branca incoerente a um filme tipo multicamadas e estudamos os mecanismos físicos que governam as reflexões e as perdas por absorção nas multicamadas, efeitos que normalmente não parecem quando a incidência ocorre diretamente do ar para o filme. A técnica que exploramos é conhecida como reflexão interna total atenuada, ATR. A presença de um filme fino metálico permite o estudo experimental de plasmons de superfície e do acoplamento a modos guiados do sistema multicamadas. Além dos estudos experimentais, apresentamos um cálculo teórico iterativo para a refletividade dos filmes do tipo multicamadas para um número qualquer de camadas, que apresenta vantagens computacionais no ajuste dos dados experimentais ou em simulações. Esta contribuição não necessita as aproximações encontradas em um grande número de trabalhos que envolvem sistemas mais simples. Apresentamos também o cálculo do fluxo de energia dentro de cada camada individual do sistema, o que nos permite determinar o tipo de modo acoplado e a sua localização. O método foi aplicado a diversos sistemas, quando uma das camadas foi modificada. Estes estudos foram realizados como função do ângulo de incidência e do comprimento de onda da radiação incidente para uma variedade de sistemas multicamadas. Nossa simulação teórica se mostra bastante adequada e útil para a projeção de sistemas multicamadas complexos com camadas metálicas e dielétricas para sensores óticos.
Resumo:
A tese aborda a influência da liberalização financeira sobre o movimento de capitais e o crescimento econômico. Está organizada em três ensaios. O primeiro apresenta um modelo teórico sobre os efeitos da mobilidade imperfeita de capital sobre o crescimento. O segundo constrói um indicador de liberalização para uma amostra de 51 países, entre 1970 e 2000, e avalia seu impacto sobre os movimentos de capitais. Por fim, o terceiro ensaio analisa os efeitos da liberalização e dos movimentos de capital sobre o crescimento.
Resumo:
A década de 90 foi marcada pela ocorrência de crises financeiras. As explicações, repetidas vezes, limitam-se a atribuir a causa destes episódios ao mau desempenho do governo, tanto pela manutenção de elevados déficits fiscais, quanto pela interferência que incentive o risco moral. Este trabalho discute uma nova explicação que, partindo do pressuposto de um mercado ineficiente, com informação assimétrica, investiga o papel da estratégia de uso de poupança externa como principal explicação para as crises recentes.
Resumo:
O objetivo deste trabalho é investigar se a relação entre a taxa de câmbio spot e o fluxo de ordens deriva do fato do fluxo agregar informações a respeito dos fundamentos econômicos dispersos na economia. Para efetuar este teste foi utilizada uma base de dados que engloba todas as transações dos segmentos comercial e financeiro no mercado cambial primário brasileiro entre janeiro de 1999 e maio de 2008. Mostramos que o fluxo de ordens foi razoavelmente capaz de explicar variações nas expectativas de inflação, relação que não se manteve robusta para escolha de outros fundamentos, como PIB e Produção Industrial.
Resumo:
O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.