998 resultados para Erros contabilísticos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os registros de vazões líquidas obtidos das estações fluviométricas são válidos, unicamente, para o local de onde foram coletados ou muito próximo a ele. Na maioria das vezes, a região de influência deste não inclui o local de interesse para o desenvolvimento de projetos de recursos hídricos. Este inconveniente, geralmente, pode ser resolvido através do uso de métodos de regionalização hidrológica. Para determinar os coeficientes da equação de regionalização, o procedimento mais usado consiste em: i) estabelecer uma relação do tipo exponencial multivariada entre a variável dependente (vazão média de longo prazo ou média anual de cheia) e as covariáveis (variáveis climáticas e fisiográficas da bacia hidrográfica); ii) linearizar a equação anterior mediante a transformação logarítmica de ambos os membros; iii) utilizar modelos lineares de regressão para estimar os coeficientes, geralmente, o método dos mínimos quadrados ordinários; e iv) aplicar a transformação inversa para definir a equação. A aplicação deste procedimento implica assumir certas propriedades dos dados (assimetria positiva, registros da mesma extensão e que os mesmos possuem o mesmo período de início e fim, entre outros) que dificilmente podem ser atendidas, prejudicando a verificação das hipóteses nas quais estão baseados os métodos lineares de regressão e, em conseqüência, seu adequado uso, bem como a confiabilidade dos resultados obtidos. Esta pesquisa apresenta um aprimoramento dos métodos de regionalização de vazões geralmente empregados, incluindo-se técnicas que levam em consideração as limitações anteriores. Estas técnicas foram: i) uso da transformada de Box-Cox na linearização da equação exponencial multivariada; ii) determinação dos coeficientes da equação de regionalização usando mínimos quadrados ponderados; e iii) verificação se os resíduos da regressão estão correlacionados ou não. Para o desenvolvimento e verificação da metodologia proposta foram usados somente registros fluviométricos de Bacias Hidrográficas Brasileiras, que drenam suas águas para o Rio Grande do Sul e/ou que estejam localizadas dentro dele. Geograficamente, a área de estudo inclui a totalidade do estado do Rio Grande do Sul e parte de Santa Catarina. As equações de regionalização foram definidas usando dados de vazões médias de longo prazo e média de cheia, para tempo de retorno de 2,33 e 50 anos. Neste último caso, as freqüências foram estimadas através do método dos momentos-L.Comparando os resultados obtidos utilizando o modelo de regionalização hidrológica proposto neste trabalho (transformada de Box-Cox / mínimos quadrados ponderados) junto a seus similares gerados usando a metodologia convencional (transformada logarítmica / mínimos quadrados ordinários) e de modelos intermediários (transformada logarítmica / mínimos quadrados ponderados e transformada de Box-Cox / mínimos quadrados ordinários), os mesmos podem ser considerados satisfatórios, visto que em todas as simulações realizadas o modelo proposto forneceu melhores resultados que aqueles obtidos com os outros modelos, sendo utilizado como padrão de comparação: 1) a qualidade do ajuste, 2) o grau de verificação das hipóteses dos métodos lineares de regressão e 3) os erros na estimativa das descargas, em termos de vazão específica. Nas simulações realizadas usando os modelos intermediários, observou-se que: i) na regionalização de vazões médias, o ganho de considerar a heterogeneidade temporal dos dados é maior do que corrigir a assimetria dos mesmos; ii) quando são usadas séries de descargas máximas, ocorre o efeito contrário, visto que o ganho de corrigir a assimetria das séries é maior do que o efeito da heterogeneidade temporal dos dados. Com relação aos resíduos da regressão, contrariamente ao esperado, os mesmos não sugerem estar correlacionados; isto pode ser conseqüência de utilizar como variável dependente um único registro por estação (vazão média de longo prazo ou média anual de cheia).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A segurança do paciente é um dos pilares de uma organização hospitalar. O objetivo deste estudo foi conhecer as opiniões dos profissionais de saúde, que trabalham em organizações hospitalares, quanto às dimensões de segurança do paciente. Foram abordados conceitos de acreditação, qualidade, cultura de segurança e segurança do paciente. A metodologia utilizada foi a aplicação de um questionário da Agency for Healthcare Research and Quality, traduzido para o português, às lideranças administrativas e assistenciais de hospitais acreditados (tanto pela metodologia da Organização Nacional de Acreditação quanto pela metodologia da Joint Commission International), no Estado de São Paulo. Também identificou-se a freqüência com que os erros são reportados e se as respostas aos erros cometidos são punitivas ou não.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trata da dose unitária, sistema de distribuição de medicamentos em hospitais, apontando as vantagens e desvantagens em relação aos outros sistemas. Relata o resultado de diversos estudos sobre a incidência de erros de medicação, a eficiência na utilização dos profissionais, a porcentagem de perdas de medicamentos e o custo dos sistemas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As deficiências da β-cetotiolase mitocondrial e da 2-metil-3-hidroxibutiril-CoA desidrogenase (MHBD) são erros inatos do catabolismo da isoleucina. Os pacientes afetados pela deficiência da β-cetotiolase apresentam crises agudas de cetose e acidose metabólica, podendo apresentar convulsões que podem evoluir ao coma e morte. Bioquimicamente, são caracterizados por excreção urinária aumentada de ácido 2-metilacetoacético (MAA), 2-metil-3-hidroxibutírico (MHB) e tiglilglicina (TG). Alguns indivíduos apresentam acidemia láctica durante as crises de descompensação metabólica. Por outro lado, os indivíduos afetados pela deficiência da MHBD são caracterizados por retardo mental, convulsões e acidose láctica severa, apresentando excreção urinária aumentada de MHB e TG. O aumento do ácido láctico em ambas as enfermidades sugere um comprometimento do metabolismo energético. Tendo em vista que os mecanismos fisiopatogênicos de ambas desordens são totalmente desconhecidos e que os achados bioquímicos sugerem um déficit na produção de energia dos pacientes, o presente trabalho teve por objetivo investigar os efeitos in vitro do MAA e do MHB sobre alguns parâmetros do metabolismo energético em córtex cerebral de ratos jovens. Nossos resultados demonstraram que o MAA inibiu a produção de CO2 a partir de glicose, acetato e citrato, indicando um bloqueio do ciclo do ácido cítrico. Em adição, o complexo II da cadeia respiratória bem como a enzima succinato desidrogenase foram inibidos na presença do MAA. Portanto, é possível que a inibição da cadeia respiratória tenha levado à inibição secundária do ciclo de Krebs. As enzimas Na+,K+-ATPase e creatina quinase (CK) não foram afetadas pelo MAA. O MHB inibiu a produção de CO2 a partir dos três substratos testados bem como o complexo IV da cadeia respiratória, sugerindo que a inibição da cadeia respiratória tenha levado à inibição da produção CO2 pelo ciclo de Krebs. A enzima Na+,K+- ATPase não foi afetada pelo ácido. No entanto, o MHB inibiu a atividade total da CK às custas da CK mitocondrial (mi-CK). A presença do inibidor da enzima óxido nítrico sintase L-NAME e do antioxidante glutationa reduzida (GSH) preveniram a inibição da atividade total da CK, enquanto que a GSH preveniu a inibição da mi-CK, sugerindo que os efeitos do MHB sobre a CK estejam relacionados à oxidação de grupamentos tióis essenciais à atividade enzimática. Tais resultados sugerem que o metabolismo energético cerebral é inibido in vitro pelo MAA e pelo MHB. Caso estes achados se confirmem nas deficiências da β-cetotiolase e da MHBD, é possível que um prejuízo no metabolismo energético causado pelo acúmulo destes metabólitos possa explicar, ao menos em parte, o dano neurológico encontrado nos pacientes portadores destas doenças.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A deficiência de guanidino acetato metiltransferase (GAMT) é um erro inato do metabolismo da creatina caracterizado por hipotonia muscular, movimentos extrapiramidais involuntários e epilepsia. A doença é bioquimicamente caracterizada por acúmulo de guanidino acetato e deficiência de creatina e fosfocreatina nos tecidos dos pacientes afetados. Os mecanismos de disfunção neurológica que ocorrem nessa doença ainda são desconhecidos. A Na+,K+-ATPase desempenha um papel fundamental no sistema nervoso central (SNC), sendo responsável pela manutenção dos gradientes iônicos e pela propagação do impulso nervoso, consumindo cerca de 50% do ATP formado no cérebro. A acetilcolinesterase (AChE) é uma importante enzima regulatória que controla a transmissão de impulsos nervosos através de sinapses colinérgicas pela hidrólise da acetilcolina, e apresenta um papel fundamental na cognição. Com o propósito de ampliar o conhecimento sobre os mecanismos fisiopatológicos da deficiência de GAMT, esse trabalho teve como objetivo investigar o efeito do guanidino acetato, o principal metabólito acumulado na deficiência de GAMT, sobre as atividades das enzimas Na+,K+-ATPase, Mg2+-ATPase e AChE em estriado de ratos. A cinética de inibição da Na+,K+-ATPase causada pelo guanidino acetato também foi estudada. Além disso, investigamos o efeito in vitro do guanidino acetato sobre as atividades da Na+,K+-ATPase, Mg2+-ATPase e da AChE de hipocampo de ratos. Nossos resultados mostraram que o guanidino acetato não altera as atividades da AChE e Mg2+-ATPase. No entanto, a atividade da Na+,K+-ATPase foi inibida por esse composto guanidínico (CG), e a análise cinética mostrou uma inibição do tipo acompetitiva. Também foi demonstrada uma interação entre o guanidino acetato e o ácido arginínico, sugerindo um sítio comum de ligação entre esses dois compostos na Na+,K+-ATPase. Os resultados mostraram que, o guanidino acetato inibiu a atividade da Na+,K+-ATPase in vitro mas não alterou as atividades da Mg2+-ATPase e da AChE. Considerando que o guanidino acetato e outros compostos guanidínicos (CG) induzem a formação de espécies reativas de oxigênio e que a Na+,K+-ATPase e a AChE são inibidas por radicais livres, estudamos o efeito da pré-incubação de homogeneizado de hipocampo de ratos na presença de guanidino acetato sobre a atividade dessas enzimas. Além disso, o efeito da pré-incubação de homogeneizado de ratos com guanidino acetato foi investigado na presença e ausência de antioxidantes, tais como glutationa (GSH), trolox, taurina e L-NAME. A pré-incubação de homogeneizado de hipocampos na presença de guanidino acetato inibiu a atividade da Na+,K+-ATPase, mas não alterou a atividade da Mg2+-ATPase. No entanto, L-NAME e taurina foram capazes de prevenir tal efeito. Dessa forma, propõem-se que a inibição da atividade da Na+,K+-ATPase pelo guanidino acetato seja um dos mecanismos envolvidos na disfunção neuronal observada em pacientes com deficiência de GAMT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ácido L-piroglutâmico (PGA) é o principal intermediário do ciclo γ-glutamil, que está relacionado à síntese e degradação da glutationa. Altos níveis de PGA no líquido cefalorraquidiano, sangue e outros tecidos, juntamente com a alta excreção urinária do mesmo (acidúria piroglutâmica ou 5-oxoprolinúria), ocorrem em alguns erros inatos do metabolismo envolvendo diferentes enzimas do ciclo γ-glutamil. Essas desordens são clinicamente caracterizadas por anemia hemolítica, acidose metabólica e disfunção neurológica severa. No entanto, os mecanismos de dano cerebral permanecem ainda não esclarecidos. Várias ações neurotóxicas foram previamente atribuídas ao PGA, como excitotoxicidade, inibição da atividade da Na+,K+-ATPase e alteração do metabolismo energético cerebral. No presente estudo, investigamos o possível papel do estresse oxidativo na neurotoxicidade do PGA. O efeito in vitro do PGA nas concentrações de 0,5 – 3,0 mM foi estudado sobre o potencial antioxidante total (TRAP), a reatividade antioxidante total (TAR), quimiluminescência, susbtâncias reativas ao ácido tiobarbitúrico (TBA-RS), e atividade das enzimas antioxidantes catalase (CAT), superóxido dismutase (SOD) e glutationa peroxidase (GPx) em córtex cerebral e cerebelo de ratos de 14 dias de vida. Tanto o TRAP quanto o TAR foram significativamente reduzidos nas estruturas estudadas. Ao contrário, a quimiluminescência e o TBA-RS não foram afetados pelo PGA. As atividades da CAT, SOD e GPx também não foram alteradas. Esses resultados mostram que o PGA pode diminuir as defesas antioxidantes nãoenzimáticas em córtex cerebral e cerebelo de ratos. Outros estudos, no entanto, parecem válidos a fim de melhor caracterizar o papel dos radicais livres na neurotoxicidade do PGA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como é amplamente conhecido, o fim da dicotomia Leste-Oeste determinou novos centros de poder econômico através da constituição de blocos envolvendo países da Europa, das Américas e da região do Pacífico. Avaliar a influência desse fenômeno para a economia da América Latina é o objetivo desta dissertação. Mais especificamente, procurar-se-á analisar o processo de integração econômica dos países latino-americanos à luz dessa nova realidade mundial. Para adequada compreensão desse fenômeno, é importante fazer menção aos esforços integração latino-americana ocorridos no passado, levando em conta os acerto e, principalmente, os erros dessas experiências.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No contexto dinâmico atual do mercado de telecomunicação celular, é importante que as empresas celulares “escutem a voz do cliente” e entendam suas necessidades assim como os atributos que eles valoram. Adicionalmente, por trás destes atributos existem processos expandidos de fornecimento de serviços que embora sejam muitas vezes invisíveis para o cliente, são indispensáveis para atender suas necessidades. Nesse sentido, se faz necessário monitorar a qualidade nos processos, desde uma perspectiva do cliente, para poder garantir que os processos sejam reflexos dos atributos valorados por eles. Isto significa traduzir as necessidades do cliente em requisitos técnicos e de desenho mensuráveis, estabelecendo um processo de controle de indicadores de desempenho explícitos entre as partes participantes dos processos. A presente dissertação propõe um modelo de medição do grau de monitoramento da qualidade aplicado a empresas de telefonia celular que permite garantir que os atributos mais valorados pelos clientes sejam realmente atendidos, através de uma metodologia que inclui o levantamento e análise de todos os processos de apoio associados aos atributos mais valorados pelos clientes, a validação e priorização desses processos por um júri de expertos de telefonia celular, a proposta de um roteiro de qualidade e de indicadores de desempenho que visam identificar se os desejos dos clientes se refletem nos processos mais relevantes e finalmente termina com a aplicação do roteiro numa empresa especifica de telefonia celular. Os resultados obtidos demonstram que para os atributos escolhidos associados a atendimento no call center, atendimento na assistência técnica e faturamento pontual e preciso, os processos mais relevantes priorizados pelo Júri de executivos foram o encaminhamento sistêmico de acesso ao call center e o preparo dos atendentes na linha de frente no caso de call center, os de substituição temporal do aparelho e realização do diagnóstico do problema no aparelho no caso de assistência técnica e de processo de cadastro do serviço e processo de correção de erros detectados no controle de qualidade antes do faturamento no caso de faturamento. Finalmente, ressalta que no caso da empresa celular específica analisada, numa escala que vai de 0% até 100%, o roteiro de qualidade proposto deu uma nota de 72% no caso de call center, 22% no caso de assistência técnica e 68% no caso do faturamento. Isto indica que muitos dos processos analisados, que muitas vezes são transversais na empresa e envolvem muitas áreas, não são monitorados de forma completa para garantir a consecução dos atributos mais valorados pelos clientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Simulador de processos é uma ferramenta valiosa, pois possibilita desde a validação de projetos e sua operabilidade prática até aumentos de produção e redução de custos. Devido a estes e outros fatores, o interesse industrial em técnicas e pacotes computacionais para a modelagem, simulação e otimização de processos tem crescido muito nos últimos anos. Juntamente com este interesse cresce a qualidade das ferramentas disponíveis no mercado para tal, mas estas ainda não satisfazem totalmente as expectativas de seus usuários. Este trabalho consiste no projeto de um novo simulador genérico para processos dinâmicos que satisfaça os usuários de forma mais completa do que os disponíveis atualmente no mercado. Para tanto, foram reunidas e, quando necessário, desenvolvidas novas técnicas relativas à descrição, análise e solução de problemas dinâmicos. Uma nova linguagem de modelagem orientada a objetos e um sistema de tradução da representação nesta linguagem para sistemas de equações foram propostos. Métodos de análise dos sistemas de equações provenientes da modelagem foram desenvolvidos com o intuito de auxiliar o usuário na detecção de erros de modelagem. Algoritmos para solução de sistemas dinâmicos e estacionários foram reunidos e uma arquitetura interna foi proposta. Por fim, o sistema como um todo foi testado através de sua aplicação em problemas típicos e outros que não podem ser resolvidos diretamente com os pacotes computacionais disponíveis no mercado. O teste com os problemas práticos provou que a estrutura proposta é adequada e apresenta uma série de vantagens quando comparada com softwares largamente utilizados na simulação de processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese propõe-se a analisar os analistas de mercado de capitais de empresas brasileiras. Coletando informações do mercado e analisando o desempenho corrente das empresas, estes profissionais realizam projeções de resultados e fazem recomendações. Usando dados extraídos do sistema I/B/E/S, realiza-se uma abrangente pesquisa empírica das previsões e recomendações dos analistas, bem como de seu conteúdo informativo para o mercado brasileiro. O período de estudo foi entre janeiro 1995 a junho 2003. Inicialmente são discutidos conceitos e particularidades do modus operandi dos analistas de empresas brasileiras. A seguir, depois de uma revisão da literatura onde se documentam as principais contribuições e descobertas, procede-se a uma investigação da natureza dos erros de previsão dos analistas de empresas brasileiras. Características como a acurácia, viés e precisão das previsões dos analistas são apreciadas e contextualizadas em diferentes situações. Efetua-se um detalhamento analítico do conteúdo informativo dos diferentes tipos de revisões de previsões dos analistas e das surpresas provocadas pelo anúncio de resultados em desacordo com as expectativas. De modo geral, as revisões e as surpresas, na medida em que informarem o mercado, provocam variações de retornos. Encerra-se a tese com uma análise das recomendações dos analistas. Apura-se a distribuição percentual das recomendações, assim como os efeitos sobre os preços de recomendações de compra (buy) e de venda(sell). O desempenho das recomendações de consenso e o efeito das revisões de recomendações para cima (upgrade) e para baixo (downgrade) são exemplos de outros pontos analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é uma discussão crítica, sob a ótica da formação de expectativas, da relação que se interpõe entre ciência econômica, como corpo de conhecimento, e seus agentes. Primeiro, examinamos abordagens relevantes sobre expectativas na análise econômica, indicando suas insuficiências. Argumentamos que a incorporação de expectativa, em qualquer tratamento analítico, deve envolver, principalmente, fundamentos epistêmicos. Segundo, sob a perspectiva da teoria de modernidade reflexiva desenvolvida por Anthony Giddens, buscamos identificar bases plausíveis para uma teoria de expectativa econômica. Concluímos que o processo de formação de expectativa é construção social, a partir da interdependência entre expertos e leigos. Denominamos esta conclusão por hipótese de expectativas socialmente construídas (HESC). Terceiro, propusemos um arcabouço analítico para incorporar a HESC. Basicamente, informação de expectativa se difunde através da mídia e do contato face a face entre agentes. Nova informação não resulta necessariamente em revisão de expectativas, o que vai depender, principalmente, de conhecimento econômico e vizinhança do agente. Por último, um exemplo de aplicação: o modelo-HESC foi submetido a três experimentos macroeconômicos, e seus resultados comparados àqueles obtidos por Mankiw e Reis (2002). A primeira conclusão desta tese é metodológica: expectativas dos agentes em modelos macroeconômicos não são determinadas a partir de equações do próprio modelo. A segunda é normativa: conhecimento e vizinhança são capazes de perpetuar ineficiências decorrentes de erros de expectativas. A terceira está relacionado com economia positiva: as diferenças entre os resultados do modelo de informação-rígida obtidos pelos autores acima e aqueles do modelo-HESC apontam para novas possibilidades explanatórias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ICTM (Interval Categorizer Tesselation Model), objeto da presente tese, é um modelo geral para análise de espaços de natureza geométrica, baseado em tesselaçoes, que é capaz de produzir uma categorização confiável de conjunto de pontos de um dado espaço, de acordo com múltiplas características dos pontos, cada característica correspondendo a uma camada do modelo. Por exemplo, na análise de terrenos geográficos, uma região geográfica pode ser analisada de acordo com a sua topografia, vegetaçao, demografia, dados econômicos etc, cada uma gerando uma subdivisão diferente da região. O modelo geral baseado em tesselações não está restrito, porém, a análise de espaços bi-dimensionais. O conjunto dos pontos analisados pode pertencer a um espaço multidimensional, determinando a característica multi-dimensional de cada camada. Um procedimento de projeção das categorizações obtidas em cada camada sobre uma camada básica leva a uma categorização confiavel mais significante, que combina em uma só classificação as análises obtidas para cada característica. Isto permite muitas análises interessantes no que tange a dependência mútua das características. A dimensão da tesselação pode ser arbitrária ou escolhida de acordo com algum critério específico estabelecido pela aplicação. Neste caso, a categorização obtida pode ser refinada, ou pela re-definição da dimensão da tesselação ou tomando cada sub-região resultante para ser analisada separadamente A formalização nos registradores pode ser facilmente recuperada apenas pela indexação dos elementos das matrizes, em qualquer momento da execução. A implementação do modelo é naturalmente paralela, uma vez que a análise é feita basicamente por regras locais. Como os dados de entrada numéricos são usualmente suscetíveis a erros, o modelo utiliza a aritmética intervalar para se ter um controle automático de erros. O modelo ICTM também suporta a extração de fatos sobre as regiões de modo qualitativo, por sentenças lógicas, ou quantitativamente, pela análise de probabilidade. Este trabalho recebe apoio nanceiro do CNPq/CTPETRO e FAPERGS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lei do preço único afirma que o mesmo ativo negociado em diferentes mercados deve apresentar preços equivalentes. Este trabalho busca verificar se o risco de crédito soberano brasileiro negociado no mercado internacional é precificado de forma semelhante tanto nos tradicionais mercados de títulos quanto no novo e crescente mercado de derivativos de crédito. Adicionalmente, utiliza-se a análise de Price Discovery para examinar qual dos mercados se move mais rapidamente em resposta às mudanças nas condições de crédito da economia brasileira. A análise empírica é feita por meio de modelos de séries de tempo, mais especificamente análise de cointegração e vetor de correção de erros. Os resultados confirmam a predição teórica da lei do preço único de que o risco de crédito brasileiro, tanto nos mercados de títulos quanto no mercado de derivativos de crédito, movem-se juntos no longo prazo. Por fim, a maior parte do Price Discovery ocorre no mercado de derivativos de crédito.