999 resultados para Componentes opticamente ativos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Ciências Cartográficas - FCT

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A técnica de análise derivativa de dados espectrais foi usada para estudar a variação dos constituintes opticamente ativos (COAs) na água, por meio de dados de campo e de imagens do sensor orbital Hyperion/EO-1. A imagem Hyperion usada neste estudo foi adquirida no dia 23 de junho de 2005, no final do período de cheia. Uma campanha de campo foi realizada entre 23 e 29 de junho de 2005, para coletar dados espectrais e limnológicos in situ. A imagem foi pré-processada visando eliminar faixas de pixels anômalos e convertida de valores de radiância para reflectância de superfície, portanto, corrigidos dos efeitos de absorção e espalhamento atmosféricos. Uma análise da correlação foi realizada para examinar a associação da reflectância e de sua primeira derivada espectral com as concentrações dos COAs. Melhores resultados foram obtidos após a diferenciação dos espectros, o que ajudou a reduzir a influência de efeitos indesejáveis, provindos de diferentes fontes de radiância, sobre as medidas de reflectância da superfície da água realizadas em ambos os níveis de aquisição de dados. Por meio de ajustes de regressões empíricas, considerando o conjunto de dados Hyperion, a primeira derivada espectral em 711 nm explicou 86% da variação da concentração de sedimentos inorgânicos em suspensão (µg.l-1) e a primeira derivada espectral em 691 nm explicou 73% da variação na concentração da clorofila-alfa (µg.l-1). As relações de regressão foram não-lineares, pois, em geral, as águas que se misturam na planície de inundação Amazônica se tornam opticamente complexas. A técnica de análise derivativa hiperespectral demonstrou potenciais para mapear a composição dessas águas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A hemostasia é um processo multifuncional, complexo e finamente regulado que envolve diversos componentes celulares e moleculares, incluindo plaquetas, parede vascular, cascata da coagulação sangüínea e fibrinólise. O desequilíbrio desses componentes pode desencadear condições patológicas, tais como hemorragias, hipercoagulopatias e a conseqüente trombose vascular. O descobrimento de novos princípios ativos e o desenvolvimento de drogas como instrumentos de intervenção antitrombótica constituem estratégias de eleição para a prevenção e o tratamento do quadro trombo-embólico. Muitos desses princípios ativos são obtidos de fontes naturais, incluindo os conhecidos anti-hemostáticos presentes em venenos de serpentes e na saliva de artrópodos hematófagos. Por afetarem o sistema hemostático humano, essas moléculas são alvo de estudos para o desenvolvimento de anti-venenos, testes laboratoriais e novas drogas terapêuticas. As lagartas do gênero Lonomia são conhecidas por produzirem proteínas tóxicas que estão associadas a uma severa síndrome hemorrágica em humanos, cujo quadro clínico é caracterizado por distúrbios da coagulação, insuficiência renal aguda, hematúria, sangramentos, dentre outros sintomas. O veneno é constituído por diversos princípios ativos, incluindo atividades pró-coagulantes e fibrinolíticas Apesar da importância social e científica desses envenenamentos e do conhecimento sobre a natureza dessas toxinas, as informações sobre as características moleculares do veneno ainda são escassas, o que limita o melhor entendimento das bases moleculares da síndrome hemorrágica e o desenvolvimento de um diagnóstico e de um tratamento mais adequados para os pacientes. O presente trabalho teve por objetivo analisar as proteínas mais abundantes e os genes expressos em maior proporção na taturana L. obliqua durante a fase larval (fase em que ocorrem os acidentes), visando identificar moléculas potencialmente envolvidas no envenenamento. As etapas realizadas foram: análise dos princípios ativos presentes em tecidos utilizados para a construção de bibliotecas de cDNA, seqüenciamento em massa das bibliotecas e análise dos transcritos utilizando ferramentas de bioinformática. Mais de mil seqüências de cDNA foram obtidas e agrupadas gerando um catálogo com informações sobre os transcritos encontrados, incluindo seqüências completas de cDNAs que codificam para proteínas provavelmente envolvidas no envenenamento, além de novas seqüências de função biológica desconhecida O conteúdo protéico do veneno foi analisado por SDS-PAGE seguido por seqüenciamento da região N-terminal das proteínas mais abundantes, possibilitando a correlação entre o cDNA e a proteína por ele codificada. As seqüências completas de cDNA foram enviadas para o GenBank (NCBI/NIH, EUA) e os resultado estão disponíveis em um sítio eletrônico específico no NCBI: http://www.ncbi.nih.gov/projects/omes. O cDNA mais abundante da lagarta, que codifica para uma lipocalina, foi clonado e obteve-se a proteína recombinante. Demonstramos que essa lipocalina liga o grupamento heme e participa da oxidação acoplada desse ligante, levando à formação de biliverdina γ, sugerindo uma nova função para as proteínas ligadoras de bilina em insetos. Os resultados obtidos colaboram para o maior entendimento das bases moleculares do envenenamento por L. obliqua, além de apontarem moléculas candidatas para o desenvolvimento de kits de diagnóstico para o envenenamento com Lonomia e para a melhora na especificidade do soro anti-lonômico, bem como para estudos mais aprofundados dos processos hemostáticos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Processo de obtenção de componentes ativos de própolis no estado sólido realizado sem a utilização de etanol em seus extratos, possibilitando a obtenção destes elementos em seu estado sólido, facilitando assim seu manuseio, armazenamento, transporte e acondicionamento, sendo que para a obtenção de tais resultados, o presente processo utiliza-se de microencapsulação, que tem sido amplamente empregada com o objetivo de mascarar o sabor e o odor desagradáveis, de controlar a liberação, facilitando o cumprimento da posologia por parte do paciente e auxiliando na terapêutica, sendo que esta tecnologia também possui a propriedade de transformar formas farmacêuticas líquidas em sólidas, eliminando solventes indesejáveis e promovendo fácil manuseio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tecnologia da informação (TI) tem provocado mudanças significativas nas empresas, mudanças estas que muitas vezes não têm um grau de sustentabilidade coerente com os bons resultados obtidos, principalmente no que se refere aos ativos intangíveis à organização. Nesse sentido, o ERP – Enterprise Resource Planning – ou Sistemas de Informações Gerenciais – SIG – são sistemas que estão sendo discutidos e analisados não só pela academia e institutos ligados à comercialização do ERP, como também pelo próprio meio empresarial como uma tecnologia de agregação de valor intangível às organizações. Este trabalho, através de um estudo de caso, baseado em pesquisa de natureza essencialmente qualitativa, mas com alguns ferramentais quantitativos, e de caráter exploratório, numa empresa do ramo de TI, localizada no Distrito Federal, analisa a evolução dos componentes do capital intelectual (capital de processos, capital de relacionamento, capital de inovação e capital humano), após a implantação do ERP. O objetivo deste estudo foi determinar a influência do ERP no desenvolvimento do capital intelectual numa organização de TI de pequeno porte do Distrito Federal. O referencial teórico contextualiza a importância da tecnologia da informação. Faz-se um apanhado da taxonomia existente de ativos intangíveis, abordando suas importâncias para a competitividade de organizações modernas, e apresenta categorizações dos diferentes tipos de intangíveis. A principal conclusão da pesquisa é que existem fortes evidências que o capital de processos evoluiu após a implantação do ERP. Entretanto, não existe evidências de que houve evolução no capital de inovação. Já para o capital de relacionamento e humano as evidências de evolução são fracas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A abordagem de Modelos Baseados em Agentes é utilizada para trabalhar problemas complexos, em que se busca obter resultados partindo da análise e construção de componentes e das interações entre si. Os resultados observados a partir das simulações são agregados da combinação entre ações e interferências que ocorrem no nível microscópico do modelo. Conduzindo, desta forma, a uma simulação do micro para o macro. Os mercados financeiros são sistemas perfeitos para o uso destes modelos por preencherem a todos os seus requisitos. Este trabalho implementa um Modelo de Mercado Financeiro Baseado em Agentes constituído por diversos agentes que interagem entre si através de um Núcleo de Negociação que atua com dois ativos e conta com o auxílio de formadores de mercado para promover a liquidez dos mercados, conforme se verifica em mercados reais. Para operação deste modelo, foram desenvolvidos dois tipos de agentes que administram, simultaneamente, carteiras com os dois ativos. O primeiro tipo usa o modelo de Markowitz, enquanto o segundo usa técnicas de análise de spread entre ativos. Outra contribuição deste modelo é a análise sobre o uso de função objetivo sobre os retornos dos ativos, no lugar das análises sobre os preços.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The objective is to analyze the relationship between risk and number of stocks of a portfolio for an individual investor when stocks are chosen by "naive strategy". For this, we carried out an experiment in which individuals select actions to reproduce this relationship. 126 participants were informed that the risk of first choice would be an asset average of all standard deviations of the portfolios consist of a single asset, and the same procedure should be used for portfolios composed of two, three and so on, up to 30 actions . They selected the assets they want in their portfolios without the support of a financial analysis. For comparison we also tested a hypothetical simulation of 126 investors who selected shares the same universe, through a random number generator. Thus, each real participant is compensated for random hypothetical investor facing the same opportunity. Patterns were observed in the portfolios of individual participants, characterizing the curves for the components of the samples. Because these groupings are somewhat arbitrary, it was used a more objective measure of behavior: a simple linear regression for each participant, in order to predict the variance of the portfolio depending on the number of assets. In addition, we conducted a pooled regression on all observations by analyzing cross-section. The result of pattern occurs on average but not for most individuals, many of which effectively "de-diversify" when adding seemingly random bonds. Furthermore, the results are slightly worse using a random number generator. This finding challenges the belief that only a small number of titles is necessary for diversification and shows that there is only applicable to a large sample. The implications are important since many individual investors holding few stocks in their portfolios

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study aims to investigate the influence of the asset class and the breakdown of tangibility as determinant factors of the capital structure of companies listed on the BM & FBOVESPA in the period of 2008-2012. Two current assets classes were composed and once they were grouped by liquidity, they were also analyzed by the financial institutions for credit granting: current resources (Cash, Bank and Financial Applications) and operations with duplicates (Stocks and Receivables). The breakdown of the tangible assets was made based on its main components provided as warrantees for loans like Machinery & Equipment and Land & Buildings. For an analysis extension, three metrics for leverage (accounting, financial and market) were applied and the sample was divided into economic sectors, adopted by BM&FBOVESPA. The data model in dynamic panel estimated by a systemic GMM of two levels was used in this study due its strength to problems of endogenous relationship as well as the omitted variables bias. The found results suggest that current resources are determinants of the capital structure possibly because they re characterized as proxies for financial solvency, being its relationship with debt positive. The sectorial analysis confirmed the results for current resources. The tangibility of assets has inverse proportional relationship with the leverage. As it is disintegrated in its main components, the significant and negative influence of machinery & equipment was more marked in the Industrial Goods sector. This result shows that, on average, the most specific assets from operating activities of a company compete for a less use of third party resources. As complementary results, it was observed that the leverage has persistence, which is linked with the static trade-off theory. Specifically for financial leverage, it was observed that the persistence is relevant when it is controlled for the lagged current assets classes variables. The proxy variable for growth opportunities, measured by the Market -to -Book, has the sign of its contradictory coefficient. The company size has a positive relationship with debt, in favor of static trade-off theory. Profitability is the most consistent variable in all the performed estimations, showing strong negative and significant relationship with leverage, as the pecking order theory predicts