947 resultados para Modelagem por distorção poli-hamônica. Parâmetro-X. Banco de testes. Estruturas planares. PHD


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho é uma pesquisa exploratória da experiência brasileira de transferências intergovernamentais de recursos, com o objetivo de identificar perspectivas de inovação no federalismo, que colaborem para o desenvolvimento humano no Brasil, num processo nacional, acelerado, contínuo e sustentado. Analisa a legislação de transferências tributárias a municípios no Brasil, aplicando a Teoria do Agenciamento (relação "Principal X Agente"), visando a articulação de uma rede complexa de relações ("contratos"), formada pelas três esferas de governo e mais a sociedade (setor privado, terceiro setor e cidadão individual), em que todos os participantes têm interesses distintos, muitas vezes contraditórios. Sintetiza uma modelagem das transferências intergovernamentais de recursos, capaz de induzir a convergência dos interesses dos participantes daquela rede complexa de relações para o objetivo comum do desenvolvimento, designada como "Tipo Ótimo de Indução". Finalmente, formula diretrizes para a revisão da sistemática de transferências de recursos no Brasil, recomendando a adoção de uma "cesta de critérios" e de "condições de acompanhamento e controle"

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata da análise do caso brasileiro, buscando-se com base no desenvolvimento teórico acerca do assunto, bem como da experiência de outros países, analisaras principais mudanças pertinentes ao tema Bancos Centrais e sua forma de atuação. Especial atenção foi dispensada a temas como a polêmica Central Banking X Free-Banking, aos Modelos de Supervisão Bancária, e a Regulamentação do art. 192 da Constituição Federal que trata do sistema financeiro e da organização, funções e forma de atuação do Banco central do Brasil

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é proposto um modelo de construção de superfície de volatilidade de opções pouco líquidas de ações listadas em bolsa. O modelo é uma função matemática que transforma a superfície de volatilidade de uma opção líquida de ação em uma superfície de volatilidade de opção pouco líquida de ação. O modelo apresenta alta sensibilidade em relação aos parâmetros da função matemática utilizada. Logo, podem ser obtidos resultados bem distintos, caso se utilize, por exemplo, a superfície de opção de Ibovespa ou de Vale como possíveis parâmetros da função. Neste caso, também é proposta uma metodologia para a decisão sobre a escolha do parâmetro de volatilidade mais adequado, tomando-se por base um backtest das diferenças observadas entre volatilidade realizada e proposta. A principal hipótese assumida no modelo é que a diferença calculada entre a volatilidade implícita da opção e a volatilidade histórica de seu ativo-objeto é uma medida que possui proporção entre mesmas medidas de todos os ativos-objetos. Assim, se conhecidas essa medida e a volatilidade histórica de um determinado ativo-objeto, calcula-se a volatilidade “implícita” da opção desse mesmo ativo-objeto. Assim como a incerteza relacionada à hipótese descrita acima, existem outras relacionadas à seleção de parâmetros no modelo e à própria iliquidez da opção e de seu ativo-objeto. O impacto dessas incertezas reflete-se no resultado financeiro da opção. Assim, propõe-se um modelo de gestão financeira conservadora baseada em reserva de resultado financeiro como provisão dessas incertezas. Neste trabalho, apresentam-se testes para algumas opções, mostrando as provisões hipoteticamente necessárias em termos de vegas das opções para cada subjacente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Essa dissertação analisa as compras de medicamentos registradas no Banco de Preços em Saúde do Ministério da Saúde com o objetivo de avaliar o quão diferentes são os preços pagos pelo setor público e pelo setor privado quando estes adquirem o mesmo bem. Adicionalmente, são testados se a experiência formação de consórcios municipais de saúde afetam os preços pagos pela aquisição de medicamentos por parte de instituições municipais e se as compras originadas em demandas judiciais têm efeito sobre o preço unitário. A análise aponta, respectivamente, para evidências de que as compras públicas são mais caras, que as instituições municipais são mais eficientes e que as compras originadas por demandas judiciais são mais caras.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present work deals with the synthesis of materials with perovskite structure with the intention of using them as cathodes in fuel cells SOFC type. The perovskite type materials were obtained by chemical synthesis method, using gelatin as the substituent of citric acid and ethylene glycol, and polymerizing acting as chelating agent. The materials were characterized by X-ray diffraction, thermal analysis, spectroscopy Fourier transform infrared, scanning electron microscopy with EDS, surface area determination by the BET method and Term Reduction Program, TPR. The compounds were also characterized by electrical conductivity for the purpose of observing the possible application of this material as a cathode for fuel cells, solid oxide SOFC. The method using gelatin and polymerizing chelating agent for the preparation of materials with the perovskite structure allows the synthesis of crystalline materials and homogeneous. The results demonstrate that the route adopted to obtain materials were effective. The distorted perovskite structure have obtained the type orthorhombic and rhombohedral; important for fuel cell cathodes. The presentation material properties required of a candidate cathode materials for fuel cells. XRD analysis contacted by the distortion of the structures of the synthesized materials. The analyzes show that the electrical conductivity obtained materials have the potential to act as a cell to the cathode of solid oxide fuel, allowing to infer an order of values for the electrical conductivities of perovskites where LaFeO3 < LaNiO3 < LaNi0,5Fe0,5O3. It can be concluded that the activity of these perovskites is due to the presence of structural defects generated that depend on the method of synthesis and the subsequent heat treatment

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nacomposites of polymers and lamellar clayminerals, has generated high scientific and technological interest, for having mechanical properties and gas barriers differentiated of polymers and conventional composites. In this work, it was developed nanocomposites by single screw extruder and injection, utilizing commercial raw material, with the goal to investigate the quality of new developed materials. It was evaluated the influence of the content and the kind of clay in the structure and in the nanocomposites properties. It was used regular and elastomeric poly (methyl methacrylate) (Acrigel LEP 100 and Acrigel ECP800) and six montmorillonites (Cloisite 10A, 11B, 15A, 20A, 25A e 30B) at the concentration of 1% e 3% in weight. The nanocomposites were characterized by X-ray diffraction (XRD), thermal gravimetric analysis (TGA), transmission electron microscopy (TEM), colorimetric, optical transparency, flexural and tensile tests, Rockwell hardness and esclerometry. It was founded that is possible to obtain intercalated and exfoliated nanocomposites PMMA/MMT, and the top results was obtained in the materials with 1%in clay weight organophilizated with 2M2HT (Cloisite 15A and 20A) presented intercalate and hybrid morphology (exfoliated and flocullated). The ones that was produced with organophilizated clay with 2MHTL8 (Cloisite 30B) had excellent visual quality, but the majority presented hybrid morphology. In the materials processed with organophilizated clay with MT2ETOH (Cloisite 30B), there were color change and loss of transparency. It occurs improvement in a few mechanical properties, mainly in the materials produced with PMMA elastomeric (Acrigel ECP800), being more significant, the increase in the resistance to stripping in those nanocomposites

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Methotrexate (MTX) is a drug used in the chemotherapy of some kind of cancers, autoimmune diseases and non inflammatory resistant to corticosteroids uveits. However, the rapid plasmatic elimination limits its therapeutic success, which leads to administration of high doses to maintain the therapeutic levels in the target tissues, occurring potential side effects. The aim of this study was to obtain spray dried biodegradable poly-lactic acid co-glycolic acid (PLGA) microparticles containing MTX. Thus, suitable amounts of MTX and PLGA were dissolved in appropriate solvent system to obtain solutions at different ratios drug/polymer (10, 20, 30 and 50% m/m). The physicochemical characterizing included the quantitative analysis of the drug using a validate UV-VIS spectrophotometry method, scanning electron microscopy (SEM), infrared spectrophotometry (IR), thermal analyses and X-ray diffraction analysis. The in vitro release studies were carried out in a thermostatized phosphate buffer pH 7.4 (0.05 M KH2PO4) medium at 37°C ± 0.2 °C. The in vitro release date was subjected to different kinetics release models. The MTX-loaded PLGA microparticles showed a spherical shape with smooth surface and high level of entrapped drug. The encapsulation efficiency was greater then 80%. IR spectroscopy showed that there was no chemical bond between the compounds, suggesting just the possible occurrence of hydrogen bound interactions. The thermal analyses and X-ray diffraction analysis shown that MTX is homogeneously dispersed inside polymeric matrix, with a prevalent amorphous state or in a stable molecular dispersion. The in vitro release studies confirmed the sustained release for distinct MTX-loaded PLGA microparticles. The involved drug release mechanism was non Fickian diffusion, which was confirmed by Kornmeyer-Peppas kinetic model. The experimental results demonstrated that the MTX-loaded PLGA microparticles were successfully obtained by spray drying and its potential as prolonged drug release system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

New drug delivery systems have been used to increase chemotherapy efficacy due the possible drug resistance of cancer cells. Poly (lactic acid) (PLA) microparticles are able to reduce toxicity and prolong methotrexate (MTX) release. In addition, the use of PLA/poloxamer polymer blends can improve drug release due to changes in the interaction of particles with biological surfaces. The aim of this study was developing spray dried biodegradable MTX-loaded microparticles and evaluate PLA interactions with different kinds of Pluronic® (PLUF127 and PLUF68) in order to modulate drug release. The variables included different drug:polymer (1:10, 1:4.5, 1:3) and polymer:copolymer ratios (25:75, 50:50, 75:25). The precision and accuracy of spray drying method was confirmed assessing drug loading into particles (75.0- 101.3%). The MTX/PLA microparticles showed spherical shape with an apparently smooth surface, which was dependent on the PLU ratio used into blends particles. XRD and thermal analysis demonstrated that the drug was homogeneously dispersed into polymer matrix, whereas the miscibility among components was dependent on the used polymer:copolymer ratio. No new drug- polymer bond was identified by FTIR analysis. The in vitro performance of MTX-loaded PLA microparticles demonstrated an extended-release profile fitted using Korsmeyer- Peppas kinetic model. The PLU accelerated drug release rate possible due PLU leached in the matrix. Nevertheless, drug release studies carried out in cell culture demonstrated the ability of PLU modulating drug release from blend microparticles. This effect was confirmed by cytotoxicity observed according to the amount of drug released as a function of time. Thus, studied PLU was able to improve the performance of spray dried MTX-loaded PLA microparticles, which can be successfully used as carries for modulated drug delivery with potential in vivo application

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o objetivo de avaliar a influência da temperatura sobre a porcentagem de germinação e o índice de velocidade de germinação (IVG) de sementes de Annona montana, conhecida como falsa graviola, espécie com potencial para porta-enxerto das variedades comerciais, testaram-se quatro temperaturas (20; 25; 30 e 35ºC). O trabalho foi desenvolvido em laboratório em câmaras de germinação tipo BOD, utilizando-se de sementes de três plantas provenientes do Banco de Germoplasma do Departamento de Produção Vegetal da Faculdade de Ciências Agrárias e Veterinárias - UNESP, Câmpus de Jaboticabal-SP. O delineamento experimental foi o inteiramente casualizado, com quatro repetições, com dez sementes cada. Pelos resultados obtidos, tem-se que tanto para o parâmetro porcentagem de germinação como para o IVG, os maiores valores observados foram para as sementes na temperatura de 30ºC (55% de germinação e IVG = 0,153), seguido da temperatura de 25ºC (25% de germinação e IVG = 0,088). Para as temperaturas de 20ºC e 35ºC, não foi observada ocorrência de germinação. A análise estatística dos dados de porcentagem de germinação foi transformada em arc-sen square root (x/100) e as médias foram comparadas pelo teste de Tukey, a 5% de probabilidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Foram desenvolvidas equações de predição de consumo de pasto de capim-elefante (Pennisetum purpureum, Schumack) por vacas mestiças Holandês x Zebu em lactação, utilizando-se procedimentos de stepwise em regressões múltiplas, aplicados a um banco de dados de experimentos conduzidos ao longo de três anos na Empresa Brasileira de Pesquisa Agropecuária (EMBRAPA) Gado de Leite (Coronel Pacheco, MG). As variáveis independentes disponíveis foram relacionadas a características inerentes às vacas (dias em lactação; teores de proteína, gordura e extrato seco total e produções destes componentes no leite; produção de leite in natura ou corrigida para 4% de gordura; ordem de lactação; peso vivo atual; peso vivo ao parto e grau de sangue Holandês x Zebu); ao manejo (dias de pastejo; disponibilidade de forragem e período de descanso da pastagem); ao ambiente (estação do ano e precipitação pluviométrica) e à alimentação (digestibilidade in vitro e parâmetros da composição química do pasto de capim-elefante e da cana-de-açúcar - Saccharum officinarum (L.) corrigida com 1% de uréia; consumos de suplemento volumoso (cana corrigida com uréia) e concentrado; concentrações fecais de proteína bruta e de fibras em detergente neutro e ácido). Efeitos linear e quadrático e transformações logarítmicas foram adicionalmente incluídos no banco de dados. Foram obtidas equações de predição de consumo de pasto de capim-elefante (expresso em kg/vaca/dia ou % do peso vivo) com coeficientes de determinação de 65,2 a 67,0%. As principais variáveis independentes incluídas nas equações foram o consumo do suplemento volumoso usado na estação seca do ano (cana corrigida com uréia); a digestibilidade in vitro do pasto de capim-elefante; a precipitação pluviométrica; a produção de leite corrigida para 4% de gordura; o peso vivo atual ou, em alternativa a este, o valor da pesagem realizada após o parto da vaca; além do consumo de suplemento concentrado, que evidenciou um efeito de substituição àquele do pasto de capim-elefante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Foram estimadas as correlações genéticas entre características de produção de leite (produção de leite, gordura, proteína e duração da lactação em até 305 dias, na primeira lactação), características de peso (taxa de crescimento de novilhas entre 12-24 meses e peso médio de vacas) e idade ao primeiro parto, em uma população de fêmeas Mestiço Leiteiro Brasileiro (MLB), por meio de metodologia REML, sob modelo animal. As estimativas de herdabilidade das características estudadas na ordem acima foram, respectivamente, 0,28± 0,08, 0,30±0,11, 0,28±0,09, 0,19±0,07, 0,18±0,06, 0,42±0,10 e 0,48±0,12. As correlações genéticas entre peso médio da vaca e a produção de leite, gordura e proteína foram, respectivamente, -0,22±0,22, -0,49±0,31 e -0,22±0,23 e da taxa de crescimento das novilhas com a produção de leite, gordura e proteína foram respectivamente, -0,59±0,35, -0,73±0,44 e -0,62±0,37. As correlações genéticas entre produção de leite, peso médio das vacas e taxa de crescimento das novilhas com idade ao primeiro parto foram respectivamente, 0,05±0,18, -0,05±0,18 e 0,02±0,20. A alta correlação genética (0,93±0,02) entre produção de leite e duração da lactação indicou que não se deve remover a variação na duração da lactação na seleção de gado leiteiro tropical.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study aims to use a computational model that considers the statistical characteristics of the wind and the reliability characteristics of a wind turbine, such as failure rates and repair, representing the wind farm by a Markov process to determine the estimated annual energy generated, and compare it with a real case. This model can also be used in reliability studies, and provides some performance indicators that will help in analyzing the feasibility of setting up a wind farm, once the power curve is known and the availability of wind speed measurements. To validate this model, simulations were done using the database of the wind farm of Macau PETROBRAS. The results were very close to the real, thereby confirming that the model successfully reproduced the behavior of all components involved. Finally, a comparison was made of the results presented by this model, with the result of estimated annual energy considering the modeling of the distribution wind by a statistical distribution of Weibull