975 resultados para Almost Greedy Bases
Resumo:
This thesis is an application of the Almost Ideal Demand System approach of Deaton and Muellbauer,1980, for a particular pharmaceutical, Citalopram, in which GORMAN´s (1971) multi-stage budgeting approach is applied basically since it is one of the most useful approach in estimating demand for differentiated products. Citalopram is an antidepressant drug that is used in the treatment of major depression. As for most other pharmaceuticals whose the patent has expired, there exist branded and generic versions of Citalopram. This paper is aimed to define its demand system with two stage models for the branded version and five generic versions, and to show whether generic versions are able to compete with the branded version. I calculated the own price elasticities, and it made me possible to compare and make a conclusion about the consumers’ choices over the brand and generic drugs. Even though the models need for being developed with some additional variables, estimation results of models and uncompensated price elasticities indicated that the branded version has still power in the market, and generics are able to compete with lower prices. One important point that has to be taken into consideration is that the Swedish pharmaceutical market faced a reform on October 1, 2002, that aims to make consumer better informed about the price and decrease the overall expenditures for pharmaceuticals. Since there were not significantly enough generic sales to take into calculation before the reform, my paper covers sales after the reform.
Resumo:
Ngugi wa Thiong’o’s Devil on the Cross represents both an insightful interpretation and a scathing critique of Kenyan politics and society during the period of neo-colonialism. The present thesis aims to explore, with the help of Marxist ideology and criticism, the relevance of the issues of class struggle, elitism and social collectivism in the novel. At the same time, this study will attempt to define Devil on the Cross as a "national allegory" depicting situations that are common to almost all post-colonial societies, and in particular, how the novel's ideological and political commitment is an important feature as it reflects Ngugi’s effort to draw attention to how Kenya and Africa as a whole suffered from imperialism, neo-colonialism, and a corrupt and greedy capitalist society.
Resumo:
Com a crescente popularização dos microcomputadores e da rede mundial de informação, Internet, uma enorme variedade e quantidade de informações estão se tornando acessíveis a um número cada vez maior de pessoas. Desta forma, também cresce a importância de se extrair a informação útil que está no grande conjunto das informações disponibilizadas. Hoje há muito mais dados na forma de textos eletrônicos do que em tempos passados, mas muito disto é ignorado. Nenhuma pessoa pode ler, entender e sintetizar megabytes de texto no seu cotidiano. Informações perdidas, e conseqüentemente oportunidades perdidas, estimularam pesquisas na exploração de várias estratégias para a administração da informação, a fim de estabelecer uma ordem na imensidão de textos. As estratégias mais comuns são recuperação de informações, filtragem de informações e outra relativamente nova, chamada de extração de informações. A extração de informações tem muitas aplicações potenciais. Por exemplo, a informação disponível em textos não-estruturados pode ser armazenada em bancos de dados tradicionais e usuários podem examiná-las através de consultas padrão. Para isso, há um complexo trabalho de gerenciamento, que é conseqüência da natureza não estruturada e da difícil análise dos dados. Os dados de entrada, que são os textos semi ou não-estruturados, são manipulados por um processo de extração configurado através de bases de conhecimento criadas pelo usuário do sistema. Esta dissertação tem como objetivo a definição de uma linguagem, com base em uma arquitetura de múltiplos níveis, para extrair satisfatoriamente as informações desejadas pelo usuário, presentes em bases de dados textuais. Também faz parte deste trabalho a implementação de um protótipo que utiliza a linguagem proposta.
Resumo:
A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.
Resumo:
Este trabalho utilizou os dados da Pesquisa de Orçamentos Familiares (POF) na Região Metropolitana de Porto Alegre (RMPA), realizada pelo Centro de Estudos e Pesquisas Econômicas (IEPE) da Universidade Federal do Rio Grande do Sul (UFRGS), em 1995, para estimar um sistema de demanda por alimentos. Implementou-se o Almost Ideal Demand System (AIDs), proposto por Deaton e Muellbauer. Com base nos coeficientes estimados, calcularam-se as elasticidadespreço, preço-cruzadas e renda para dez subgrupos de alimentos.
Resumo:
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
Resumo:
Neste trabalho, realizou-se a síntese e a caracterização de quatro novas bases de Tröger. Estes compostos pertencem à classe de heterociclos 2-hidroxifenibenzazóis, que caracterizam-se por apresentar uma forte emissão de fluorescência, devido à reação de transferência protônica intramolecular no estado excitado -ESIPT- por eles sofrrida quando excitados por luz ultravioleta. Os heterociclos sintetizadosapesentam ligações de hidrogênio intramolecular entrte o nitrogênio azólico e a hidroxila fenólica e um granded deslocamento de Stokes, características tíicas de compostos que sofrem a ESIPT. As bases de Tröger, que são quirais, são bem conhecidas como receptores moleculares devido a concavidade que estas moléculas apresentam, Os compostos obtidos são os primeiro exmeplos de bases de Tröger fluorescentes, via ESIP, na literatura, por isso, despertam grande interesse na síntese de sondas biológicas moleculares fluorescentes. A partir da resolução quiral das bases de Tröger, estas potencialmente podem vir a ser utilizadas como indutores quirais e/ou par ao reconhecimento enantiosseletivo do DNA. A resolução quiral foi feita para uma das bases de Tröger sintetizadas.
Resumo:
We argue that it is possible to adapt the approach of imposing restrictions on available plans through finitely effective debt constraints, introduced by Levine and Zame (1996), to encompass models with default and collateral. Along this line, we introduce in the setting of Araujo, Páscoa and Torres-Martínez (2002) and Páscoa and Seghir (2008) the concept of almost finite-time solvency. We show that the conditions imposed in these two papers to rule out Ponzi schemes implicitly restrict actions to be almost finite-time solvent. We define the notion of equilibrium with almost finite-time solvency and look on sufficient conditions for its existence. Assuming a mild assumption on default penalties, namely that agents are myopic with respect to default penalties, we prove that existence is guaranteed (and Ponzi schemes are ruled out) when actions are restricted to be almost finite-time solvent. The proof is very simple and intuitive. In particular, the main existence results in Araujo et al. (2002) and Páscoa and Seghir (2008) are simple corollaries of our existence result.