988 resultados para Modelos mistos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os mecanismos envolvidos nas atividades toxicológicas e/ou farmacológicas dos compostos orgânicos de selênio são pouco conhecidos. Os compostos orgânicos de selênio (disseleneto de difenila e ebselen) e organotelúrio (ditelureto de difenila) foram alvo dos trabalhos realizados“in vitro”, neste estudo. Os compostos organocalcogênios apresentaram efeitos diversos sobre o influxo de 45Ca2+ medido em sinaptossomas de cérebro de rato, dependendo das condições e agentes despolarizantes usados. Ebselen, (PhSe)2 e (PhTe)2 alteram a captação de 45Ca2+ de maneira distinta quando expostos a aminopiridina ou KCl. Enquanto (PhTe)2 inibe a captação de cálcio em todas as condições experimentadas, (PhSe)2, apresenta este efeito apenas quando incubado em condições basais ou sob a ação de aminopiridina. Ebselen, por sua vez, aumenta a captação de cálcio em altas concentrações em condições basais e sob a ação de aminopiridina, porém, apresenta efeito inverso quando os sinaptossomas são despolarizados por KCl. Ebselen evitou a inibição da captação de 45Ca2+ “in vitro” provocada por cloreto de mercúrio(HgCl) em sinaptossomas de cérebro de rato em condições basais do ensaio, no entanto, ebselen não afetou a inibição da captação de glutamato “in vitro” por HgCl, indicando que ebselen pode atuar dependendo das proteínas-alvo consideradas.Os compostos de mercúrio, MeHg e HgCl, inibiram a captação de glutamato em córtex cerebral de ratos de 17 dias e ebselen reverteu somente o efeito do MeHg porém, não, o do HgCl. Disseleneto de difenila não alterou os parâmetros avaliados na exposição de ambos os compostos de mercúrio.Os compostos de mercúrio estudados provocaram a morte celular das fatias de córtex, porém, ebselen protegeu as fatias dos efeitos lesivos provocados por MeHg e não pelo HgCl.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o trabalho se refere à avaliação de opções através do modelo conhecido pelo nome de seus autores, Black-Scholes. É descrito o desenvolvimento da teoria de opções, desde os primórdios da existência de mercados organizados deste derivativo, no século XVII, até os mais importantes trabalhos dos primeiros anos da década de 1990. É destacado o papel fundamental da estimação correta dos parâmetros a serem inseridos no modelo de avaliação. Após esta revisão, um teste do modelo Black-Scholes é realizado no mercado de opções sobre ouro da BM&F, utilizando-se mecanismos tradicionais de estimação dos parâmetros e apurando-se a diferença existente entre o valor dado pelo modelo de avaliação e o observado no mercado. Novos mecanismos de apuração dos parâmetros fundamentais, volatilidade e taxa de juros, são propostos, baseados no comportamento das séries históricas a eles referentes. A análise deste comportamento mostra a adequação destas séries à uma classe de modelos econométricos conhecidos como ARCH - Autorregressive Conditiona! Heterocedasticity Mode! . Três novos testes do modelo Black-Scholes no mercado de opções são realizados: o primeiro usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada de forma tradicional, o segundo usando a taxa de juros estimada através de um modelo ARCH-M(1) e a volatilidade estimada de forma tradicional e, finalmente, o terceiro, usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada através de um modelo ARCH-M(1). As diferenças, nos três casos, entre os valores dados pelo modelo Black-Scholes e os observados no mercado, foram computadas. Os resultados indicaram que o uso da volatilidade estimada através do modelo ARCH(1) melhora a performance do modelo Black-Scholes, perfomance esta medida pelo erro quadrático médio entre os valores dados pelo modelo e os observados no mercado. O mesmo não ocorreu com a utilização da taxa de juros estimada pelo modelo ARCH-M(1), apesar da compatibilidade teórica apresentada entre a série temporal destas taxas e o modelo. O autor acredita que este resultado seja devido à problemas encontrados na estimação dos parâmetros deste modelo ARCH-M(1). Também a inserção conjunta dos dois parâmetros estimados através dos modelos da classe ARCH não foi frutífera, ainda em função dos problemas de estimação dos modelos referentes à taxa de juros. As conclusões básicas do trabalho indicam que as série temporais em estudo são modeláveis e que os modelos da classe ARCH se apresentam como promissores para este fim, ao menos no que tange à volatilidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, o potencial para produtos de supermercados em municípios do Estado de São Paulo é modelado por meio da aplicação de modelos lineares hierárquicos em dois níveis (município e microrregião) e em três níveis (município, micro e mesorregião). Os modelos lineares hierárquicos acomodam bem as relações espaciais de vizinhança e hierarquia que estruturam o mercado, produzindo resíduos normais, homocedásticos e não autocorrelacionados espacialmente (enquanto os modelos de regressão linear convencionais não permitem incorporar os conceitos de estrutura geográfica e têm seus pressupostos de homocedasticidade e independência violados). A metragem de loja e a densidade populacional são propostas como variáveis proxi para, respectivamente, a demanda de mercado e a hierarquia de uma localidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os modelos hazard, também conhecidos por modelos de tempo até a falência ou duração, são empregados para determinar quais variáveis independentes têm maior poder explicativo na previsão de falência de empresas. Consistem em uma abordagem alternativa aos modelos binários logit e probit, e à análise discriminante. Os modelos de duração deveriam ser mais eficientes que modelos de alternativas discretas, pois levam em consideração o tempo de sobrevivência para estimar a probabilidade instantânea de falência de um conjunto de observações sobre uma variável independente. Os modelos de alternativa discreta tipicamente ignoram a informação de tempo até a falência, e fornecem apenas a estimativa de falhar em um dado intervalo de tempo. A questão discutida neste trabalho é como utilizar modelos hazard para projetar taxas de inadimplência e construir matrizes de migração condicionadas ao estado da economia. Conceitualmente, o modelo é bastante análogo às taxas históricas de inadimplência e mortalidade utilizadas na literatura de crédito. O Modelo Semiparamétrico Proporcional de Cox é testado em empresas brasileiras não pertencentes ao setor financeiro, e observa-se que a probabilidade de inadimplência diminui sensivelmente após o terceiro ano da emissão do empréstimo. Observa-se também que a média e o desvio-padrão das probabilidades de inadimplência são afetados pelos ciclos econômicos. É discutido como o Modelo Proporcional de Cox pode ser incorporado aos quatro modelos mais famosos de gestão de risco .de crédito da atualidade: CreditRisk +, KMV, CreditPortfolio View e CreditMetrics, e as melhorias resultantes dessa incorporação

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Descreve os novos modelos de administração, surgidos ao longo da evolução do contexto empresarial, quais sejam: administração japonesa, administração participativa, administração empreendedora, administração holística e administração virtual. Após analisar as características de cada modelo, relata três estudos de caso de empresas brasileiras que estão aplicando algumas das novas práticas gerenciais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A metodologia para a estimação por cenários alternativos com base na interação entre modelos subjetivos causais e técnicas analíticas para o dimensionamento de mercado representa uma proposta de tratamento sistemático dos problemas de análise e previsão, utilizado nas áreas de estratégia mercadológica e planejamento empresarial. A tese trata inicialmente de dois critérios para a classificação das técnicas de previsão e geração de cenários. No primeiro deles, são considerados os atributos que usualmente orientam a seleção dos métodos de previsão mais apropriados para cada caso. No segundo, é definido um referencial com base nas regras empregadas para identificar o modo de geração dos futuros alternativos. Em ambas situações, foram consultados trabalhos que incorporaram extensivamente os conceitos de interesse desta tese, com o propósito de apoiar a sua fundamentação teórica. Uma análise adicional mais detalhada se ateve às técnicas que propiciaram a base conceitual da metodologia, a exemplo da modelagem estrutural e das probabilidades subjetivas. Com o objetivo de testar a adequação da proposta ao estudo de caso, foi escolhido o mercado atendido pela indústria de energia elétrica. Este procedimento passou inicialmente por uma investigação a nível nacional com a intenção de: (i) observar aquelas técnicas e indicadores utilizados regularmente III pelas concessionárias; (ii) constatar e comparar situações que afetam a qualidade das previsões, a exemplo do tamanho da equipe e do grau de comunicação com as instituições externas. Em seguida, foi efetuada uma aplicação prática sobre o mercado regional de eletricidade do segmento residencial, na tentativa de validar empiricamente a metodologia proposta. Como particularidades, foram introduzidas as equações simultâneas do lado analítico, e a consulta aos especialistas, os quais foram aplicados na construção do modelo exploratório do lado subjetivo. A interação entre as técnicas resultou em alguns cenários para o mercado analisado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As bases moleculares da neuroproteção contra a isquemia mediada por estrógeno continuam obscuras, assim como os mecanismos envolvendo a tolerância ao dano isquêmico subseqüente induzida por pré-condicionamento. Neste trabalho foi estudado se as vias de sinalização celular da PI3-K (fosfatidil inositol 3-quinase) e da MEK/ERK 1/2 estariam envolvidas na neuroproteção induzida por estrógeno, bem como alguns parâmetros de estresse oxidativo, especificamente o conteúdo de radicais livres, um índice de dano oxidativo a proteínas e a capacidade antioxidante total. Também foi estudado o possível envolvimento dos transportadores de glutamato (EAAT1 e EAAT2) e dos receptores de estrógeno (ERα e ERβ) nos efeitos neuroprotetores do estrógeno e do pré-condicionamento. Para este fim, foram utilizados os modelos in vitro de culturas organotípicas de fatias hipocampais e fatias hipocampais preparadas a fresco expostas à privação de oxigênio e glicose (POG) e o modelo in vivo de hipóxia-isquemia neonatal. Em culturas tratadas tanto aguda como cronicamente com 17β-estradiol, a morte celular induzida por POG foi diminuída acentuadamente quando comparada com as culturas tratadas apenas com veículo. Este efeito neuroprotetor foi evitado por LY294002 (inibidor de PI3-K), mas não por PD98059 (inibidor de MEK/ERK 1/2). Ambos os protocolos de tratamento com estradiol induziram a fosforilação/ativação da proteína quinase B (PKB/Akt) e a fosforilação/inativação da glicogênio sintase quinase-3β (GSK-3β). Em um estudo similar, o imunoconteúdo do receptor estrogênico ERα diminuiu após POG em culturas tratadas tanto com estradiol quanto veículo, enquanto que o receptor ERβ aumentou apenas nas culturas tratadas com estradiol expostas ou não à POG. Não foram observadas alterações no imunoconteúdo dos transportadores de glutamato (EAATs) em nenhum dos tratamentos in vitro. Em fatias de hipocampo de cérebro de ratas ovariectomizadas que receberam reposição de estradiol, a morte celular foi reduzida em comparação ao grupo de ratas que não recebeu a reposição hormonal. Neste mesmo modelo, observou-se que a POG aumentou a produção de radicais livres nos dois grupos, porém não foram observadas diferenças na capacidade antioxidante total. Por outro lado, a reposição de estradiol evitou a redução nos conteúdos de triptofano e tirosina causada por POG. No modelo in vivo, o cérebro de ratos neonatos foi protegido contra a hipóxia-isquemia pelo précondicionamento hipóxico. Em paralelo, o pré-condicionamento aumentou o imunoconteúdo dos transportadores de glutamato EAAT2 e do receptor estrogênico ERα em córtex e diminuiu os níveis de EAAT2 em estriado, mas não afetou os níveis de EAAT1 e ERβ. Já no modelo in vitro de pré-condicionamento, nas culturas organotípicas de hipocampo pré-condicionadas, 15 min de POG induziu tolerância acentuada a um período subseqüente de 45 min de POG, porém não foram detectadas alterações nos transportadores de glutamato nem nos receptores estrogênicos. Juntos, os resultados sugerem que na isquemia a neuroproteção induzida por estrógeno pode envolver a via de sinalização celular da fostatidil inositol 3-quinase (PI3-K), a prevenção do dano oxidativo a proteínas e a regulação dos receptores estrogênicos ERα e ERβ, enquanto que a tolerância à isquemia cerebral induzida por pré-condicionamento pode envolver a regulação dos transportadores de glutamato EAAT2 e receptores estrogênicos ERα.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata de modelos de avaliação debonds, dentro de uma abordagem evolutiva. Apresenta a evolução das técnicas de precificação desses títulos de renda fixa. Inicialmente discute a abordagem tradicional, que compreende a determinação do valor do fluxo de caixa descontado e a análise de sensibilidade dos preços dos títulós a alterações nas taxas de juros, bem como imunização de carteira de bonds quando seadmite uma estrutura temporal de juros constante. A seguir apresenta as várias formas da curva de juros a vista e as teorias econômicas elaboradas para explicar estas formas. Finalmente, traz modelos dinâmicos de determinação da estrutura temporal de juros, desenvolvidos para tempo contínuo e para tempo discreto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação é fruto de pesquisas, estudos e testes sobre os modelos de representação do conhecimento e os instrumentos utilizados na construção de sistemas especialistas. Visando estabelecer critérios que permitam, a partir da definição das estruturas do conhecimento de um determinado domínio, elaborar um modelo de representação do conhecimento adequado a esse domínio e, também, escolher o instrumento de desenvolvimento e implementação (uma linguaguem ou shell) mais adequado à aplicação em consideração

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisa a relevância e a validade dos modelos específicos para avaliação de bancos encontrados na literatura de finanças. Partindo do objetivo de maximização do valor para o acionista, discute a crescente preocupação dos bancos e dos órgãos reguladores com a estimação e a divulgação do valor de mercado dos ativos e passivos dos bancos. Apresenta os métodos tradicionais de avaliação de empresas e analisa, com mais detalhe, o modelo de fluxo de caixa descontado. Analisa as justificativas encontradas na literatura para a utilização de modelos específicos para avaliação de bancos, assim como os principais aspectos que devem ser considerados nesses modelos. Descreve os modelos específicos para avaliação de bancos encontrados na literatura de finanças e os analisa, usando como parâmetro os principais aspectos que devem ser considerados nesses modelos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta o método value at risk (VaR) para se mensurar o risco de mercado, sob diferentes abordagens. Analisa a série histórica do índice Bovespa no período de 1995 a 1996 por meio de testes econométricos de normalidade, autocorrelação dos retornos e raiz unitária. Comparo valor obtido a partir dos diferentes modelos de estimação de volatilidade propostos e verifica qual dos modelos foi o mais adequado para o caso estudado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Através de um estudo de caso, este trabalho apresenta evidências empíricas que reforçam e ampliam as descobertas de trabalhos anteriores sobre as contribuições dos modelos 3D digitais no processo de inovação tecnológica de uma empresa da indústria de manufatura, e oferece contribuições para a academia e para a prática. A inovação tecnológica é um dos fatores essenciais da competição e do desenvolvimento industrial. Na medida em que as mudanças tecnológicas ocorrem em complexidade e ritmo crescentes, as empresas têm procurado aumentar a flexibilidade e a velocidade de suas atividades através de sofisticados sistemas de tecnologia de informação e de comunicações. Na indústria de manufatura, os modelos 3D digitais têm sido cada vez mais utilizados ao longo do ciclo de vida dos produtos das empresas e a sua difusão não apenas tornou-os elementos chave para o processo de inovação tecnológica, mas a sua adoção está forçando muitas empresas a rever a forma como elas conduzem e gerenciam suas atividades de inovação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mostra a evolução dos modelos financeiros de saldo de caixa e adapta um modelo de programação dinâmica probabilística às condições operantes das instituições financeiras brasileiras