983 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O propósito deste estudo é analisar a capacidade dos modelos econométricos ARMA, ADL, VAR e VECM de prever inflação, a fim de verificar qual modelagem é capaz de realizar as melhores previsões num período de até 12 meses, além de estudar os efeitos da combinação de previsões. Dentre as categorias de modelos analisados, o ARMA (univariado) e o ADL (bivariado e multivariado), foram testados com várias combinações de defasagens. Foram realizadas previsões fora-da-amostra utilizando 3 períodos distintos da economia brasileira e os valores foram comparados ao IPCA realizado, a fim de verificar os desvios medidos através do EQM (erro quadrático médio). Combinações das previsões usando média aritmética, um método de média ponderada proposto por Bates e Granger (1969) e média ponderada através de regressão linear múltipla foram realizadas. As previsões também foram combinadas com a previsão do boletim FOCUS do Banco Central. O método de Bates e Granger minimiza a variância do erro da combinação e encontra uma previsão com variância do erro menor ou igual à menor variância dos erros das previsões individuais, se as previsões individuais forem não viesadas. A conclusão é que, com as técnicas de séries temporais utilizadas, alguns modelos individuais fornecem previsões com EQM relativamente baixos. Destacando-se, dentre eles, os modelos VAR e VECM. Porém, com a combinação de previsões os EQM obtidos são menores do que os das previsões individuais usadas para combinação. Na maioria dos casos, a combinação de previsões com o boletim FOCUS também melhorou significativamente os resultados e forneceu previsões com EQM menores do que os das previsões individuais, destacando-se, dentre os métodos de combinações utilizados, a combinação via regressão linear múltipla.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta técnicas econométricas de análise de séries temporais que permitem testar, empiricamente, hipóteses sobre a definição da dimensão geográfica de mercados relevantes. Estas técnicas são aplicadas ao mercado brasileiro de resinas termoplásticas polietilenos e polipropileno com o objetivo de obter subsídios para a correta caracterização de sua dimensão geográfica. Os resultados obtidos adicionam evidências no sentido de que estes mercados relevantes geográficos podem ser definidos como internacionais. A técnica da cointegração indica que existe uma relação estável de longo prazo entre os preços das resinas produzidas domesticamente e das resinas internalizadas. Desvios desta relação têm caráter transitório. Por intermédio da análise da decomposição de variância percebe-se que os erros de previsão dos valores das resinas domésticas passam a ser rapidamente explicados pelas variações ocorridas nos preços das resinas internalizadas, sendo que o oposto não ocorre, ou seja, os preços das resinas internalizadas são explicados primordialmente por seus próprios desvios. Por fim, a Técnica da causalidade de Granger aponta que apenas o preço das resinas internalizadas causa , no sentido de Granger, o preço das resinas domésticas. O oposto não é valido e as variações nos preços das resinas domésticas não adicionam capacidade de previsão dos preços das resinas internalizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A homocistinúria é uma doença metabólica hereditária causada pela deficiência severa na atividade da enzima cistationina β-sintase e é bioquimicamente caracterizada pelo acúmulo tecidual de homocisteína e metionina. Retardo mental, deficiência cognitiva, isquemia, convulsões e aterosclerose são achados clínicos comuns em pacientes homocistinúricos. No entanto, os mecanismos fisiopatológicos da doença são pouco conhecidos. Modelos animais experimentais de erros inatos do metabolismo são úteis para compreender a fisiopatologia dessas doenças em humanos. No nosso laboratório, já foram criados alguns modelos animais de algumas doenças metabólicas hereditárias, como, por exemplo, fenilcetonúria e hiperprolinemia tipo II. A Na+,K+-ATPase é uma enzima fundamental responsável pela manutenção do gradiente iônico necessário para a excitabilidade neuronal e consome de 40 a 60% do ATP formado no cérebro. Essa enzima é inibida por radicais livres e sua atividade está diminuída na isquemia cerebral, epilepsia e em doenças neurodegenerativas como a doença de Alzheimer. A diminuição de energia cerebral e o estresse oxidativo têm sido associados com algumas doenças que afetam o sistema nervoso central, como as doenças de Alzheimer, Parkinson e Huntington e isquemia cerebral. Por outro lado, a homocisteína tem sido considerada um fator de risco para o aparecimento dessas doenças. No sentido de ampliar o conhecimento das alterações bioquímicas envolvidas na gênese da disfunção neurológica característica da homocistinúria, esse trabalho teve como principal objetivo desenvolver um modelo químico experimental de hiperhomocisteinemia em ratos. Utilizando esse modelo, verificamos a atividade da Na+,K+-ATPase e alguns parâmetros de metabolismo energético (produção de CO2, captação de glicose, produção de lactato e atividades das enzimas succinato desidrogenase e citocromo c oxidase) em hipocampo de ratos. A aprendizagem e a memória na tarefa do labirinto aquático de Morris foram avaliadas em ratos submetidos ao modelo químico experimental de hiperhomocisteinemia. Nesse trabalho, também estudamos o efeito in vitro dos metabólitos acumulados na homocistinúria, homocisteína e metionina, sobre a atividade da Na+,K+-ATPase e sobre alguns parâmetros de metabolismo energético (produção de CO2, captação de glicose, produção de lactato e atividade da enzima citocromo c oxidase). Além disso, o efeito in vitro da homocisteína sobre alguns parâmetros de estresse oxidativo (potencial antioxidante total (TRAP), substâncias reativas ao ácido tiobarbitúrico (TBARS) e atividades das enzimas antioxidantes catalase, superóxido dismutase e glutationa peroxidase) em hipocampo de ratos foi investigado. O tratamento crônico foi realizado do 6o ao 28o dia de vida, através de administrações subcutâneas de homocisteína, duas vezes ao dia, com intervalos de 8 horas. As doses de homocisteína administradas foram escolhidas com o objetivo de induzir concentrações plasmáticas de 0,4 a 0,5 mM, semelhantes àquelas encontradas em pacientes homocistinúricos. Através desse tratamento, também foram induzidas concentrações elevadas de homocisteína no cérebro de ratos. Os controles receberam solução salina em volumes semelhantes. Os resultados mostram que a administração crônica de homocisteína inibiu a atividade da Na+,K+-ATPase de membrana plasmática sináptica, a produção de CO2 e a captação de glicose, assim como as atividades das enzimas succinato desidrogenase e citocromo c oxidase em hipocampo de ratos. Os animas tratados com homocisteína também apresentaram diminuição de memória na tarefa do labirinto aquático de Morris. Além disso, a homocisteína e a metionina inibiram a atividade da Na+,K+-ATPase de hipocampo de ratos in vitro. Estudos cinéticos sobre a inibição da Na+,K+-ATPase, causada pela homocisteína, também foram realizados. Os resultados mostraram que a homocisteína inibe a enzima de forma não-competitiva com o ATP como substrato. Também foi verificado que a incubação de homogeneizados de hipocampo com homocisteína diminuiu a atividade da Na+,K+-ATPase e que a incubação simultânea com alguns antioxidantes, tais como glutationa, ditiotreitol, cisteína e a enzima antioxidante superóxido dismutase preveniram esse efeito. Os metabólitos acumulados na homocistinúria também alteraram alguns parâmetros de metabolismo energético cerebral (produção de CO2 e lactato, captação de glicose e atividades das enzimas succinato desidrogenase e citocromo c oxidase) in vitro. Além disso, verificou-se que a homocisteína in vitro diminuiu o TRAP e aumentou a quantidade de TBARS, um marcador de lipoperoxidação, mas não alterou as atividades das enzimas antioxidantes catalase, superóxido dismutase e glutationa peroxidase. Os achados sugerem que a inibição da atividade da Na+,K+-ATPase, a diminuição do metabolismo energético e o aumento do estresse oxidativo podem estar relacionados com as disfunções neurológicas características dos pacientes homocistinúricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existem divergências entre Lara Resende (1982) e Cysne (1993) sobre o que determinou o descumprimento das metas monetárias que serviram como um dos instrumentos de combate a inflação no PAEG. Para se entender o que de fato ocorreu, reconstruímos a oferta de moeda a partir das variáveis descritas por estes autores como relevantes na sua argumentação. Pelo descrito, tudo indicava uma mudança estrutural, mas, usando a técnica de Chow, ficou evidente que a mesma ocorreu com o advento do Plano Trienal, não com o PAEG. Para percebermos isto, trabalhamos com um período superior a implantação e execução do PAEG (1960:01 a 1968:12). Esta investigação demonstrou duas coisas: erros na utilização analítica (este é o caso do papel das reservas internacionais e mudança estrutural) e peso de argumentação desmedida (este é o caso do papel dado ao crédito concedido pela Autoridade Monetária via Banco do Brasil ao setor privado). Afora isto, o que se tem de concreto, é que a oferta de moeda não foi resultado de uma variável isolada, mas de um conjunto bem articulado que, apesar das suas diferenças de influência, produziram no período específico em que se tem o PAEG (não pelo PAEG), uma oferta de moeda cadente e fora das metas monetárias previstas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A substituição total de uma articulação de joelho é uma técnica amplamente usada para corrigir os danos irreversíveis na juntas originais, causadas por patologias como osteoartrite e artrite reumatóide. Com o aumento número de pacientes jovens e mais ativos, a evolução na técnica da substituição da articulação total de joelho visando desempenho de longo prazo passa a ser uma demanda crítica. Portanto, na tentativa de evitar as falhas prematuras e prolongar a vida em serviço como um todo, as modificações na bandeja tibial podem produzir erros fundamentais. O design da bandeja tibial é um importante fator, porque a sua fratura pode ocorrer em função de elementos geométricos da mesma, como raios de concordância e cantos vivos. A escolha do material e do processo de fabricação também são importantes. No tocante a rota de fabricação, pode ser visto que as ligas forjadas tem o maior limite de fadiga, se comparado com as obtidas pelo processo de fundição. Entretanto, a combinação das técnicas de desenho assistido por computador (CAD), engenharia assistida por computador (CAE) e manufatura assistida por computador (CAM) podem ser uma solução rápida e barata para alcançar melhores características das bandejas tibiais. Contudo, testes pré-clínicos devem ser executados para garantir que as bandejas tibiais não falharão prematuramente devido à fadiga. As técnicas de metalografia, microdureza e espectrometria foram empregadas neste trabalho com o objetivo de caracterizar metalurgicamente a liga de aço inoxidável atualmente empregada. A rugosidade superficial foi avaliada, assim como o número de ciclos para a iniciação das trincas. Com a utilização do método de elementos finitos, verificou-se o ponto de maior tensão e, aliado ao estudo de fractografia, foi determinado o modo de falha Os resultados indicaram que o material atualmente empregado não está em conformidade com todos os requisitos das normas vigentes, de forma que um material alternativo é sugerido. Com o objetivo de melhorar a resistência à fadiga sem apresentar problemas de ordem clínica, cinco geometrias foram propostas e os resultados da análise de tensões pelo método de elementos finitos indicaram um grande potencial de aumento da vida em fadiga.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A motivação para este trabalho vem dos principais resultados de Carvalho e Schwartzman (2008), onde a heterogeneidade surge a partir de diferentes regras de ajuste de preço entre os setores. Os momentos setoriais da duração da rigidez nominal são su cientes para explicar certos efeitos monetários. Uma vez que concordamos que a heterogeneidade é relevante para o estudo da rigidez de preços, como poderíamos escrever um modelo com o menor número possível de setores, embora com um mínimo de heterogeneidade su ciente para produzir qualquer impacto monetário desejado, ou ainda, qualquer três momentos da duração? Para responder a esta questão, este artigo se restringe a estudar modelos com hazard-constante e considera que o efeito acumulado e a dinâmica de curto-prazo da política monetária são boas formas de se resumir grandes economias heterogêneas. Mostramos que dois setores são su cientes para resumir os efeitos acumulados de choques monetários, e economias com 3 setores são boas aproximações para a dinâmica destes efeitos. Exercícios numéricos para a dinâmica de curto prazo de uma economia com rigidez de informação mostram que aproximar 500 setores usando apenas 3 produz erros inferiores a 3%. Ou seja, se um choque monetário reduz o produto em 5%, a economia aproximada produzirá um impacto entre 4,85% e 5,15%. O mesmo vale para a dinâmica produzida por choques de nível de moeda em uma economia com rigidez de preços. Para choques na taxa de crescimento da moeda, a erro máximo por conta da aproximação é de 2,4%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação de mestrado procura contribuir no debate sobre o desalinhamento cambial no Brasil, principalmente no período pós 1994. Para tanto, são apresentadas, respectivamente, revisões bibliográficas acerca de diferentes modelos de taxa de câmbio de equilíbrio e de diversas estimativas desta, a partir de modelos analíticos e metodologias econométricas diferentes. São analisadas, também, taxas de câmbio de equilíbrio estimadas para o Brasil por diversos autores. Por fim, é realizada uma estimativa para a taxa de câmbio real de equilíbrio para a economia brasileira para o período 1984-2000. Foi utilizado um modelo baseado em Montiel (1999), próprio para economias em desenvolvimento, estimado com dados trimestrais. As estimativas são feitas a partir dos coeficientes de longo prazo de um modelo de cointegração, onde as variáveis são transformadas pelo filtro de Hodrick-Prescott para que sejam obtidos os seus valores permanentes. Os resultados indicam que a evolução dos fundamentos da economia gerou uma tendência de redução do desalinhamento cambial no período pós 1994. Além disso, o coeficiente de correção de erros estimado foi compatível com o comportamento da taxa de câmbio após a liberalização do mercado de câmbio de janeiro de 1999.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos a fotometria de 6 campos estelares profundos distribuídos na Grande Nuvem de Magalhães obtidos com a Wide Field and Planetary Camera 2/Hubble Space Telescope em duas bandas fotométricas: F814W (~I) e F555W (~V). Foram selecionadas ao todo 15997 estrelas pela nossa amostra, que somadas às estrelas da amostra de Castro et aI. 2001 [9] contabilizaram 22239 estrelas, dentro de limites de magnitude típicos que estão no intervalo 18.5<-V <-26. Investigamos o comportamento do erro fotométrico através da tarefa PHOT/IRAF, bem como via medidas independentes de magnitude de um mesmo objeto obtidas com diferentes exposições. Implementamos um método de correção para a completeza fotométrica como função da posição no diagrama cor-magnitude, isto é, com função tanto da magnitude como da cor e analisamos a sensibilidade das funções de luminosidade obtidas para diferentes métodos de correção. Foram obtidos os diagramas cor-magnitude, com os quais ajustamos isócronas de Pádova com idades T ;S 16 Gano e metalicidades 0.001 < Z < 0.004 ou -1.3 < [Fe/H] < -0.7. A população mais velha (r~12 Gano) pode ser encontrada através do ponto de turn-off em V~22. Estrelas de idade intermediária (r~1 - 8 Gano) podem ser localizadas pela presença de um clump. Os campos próximos aos aglomerados jovens NGC1805 e NGC1818 são os campos mais populosos, apresentando estrelas com r~1 Gano. Construímos funções de luminosidade para 18.5<-V <-25, utilizando os dados das duas amostras; não foram encontradas diferenças significativas entre os campos Desenvolvemos um método para geração de diagramas cor-magnitude (CMDs) artificiais a partir de um modelo de histórico de formação estelar. Este método incorpora os efeitos de erros fotométricos, binarismo não resolvido, avermelhamento e permite o uso de formas variadas de função de massa inicial e do próprio histórico. Implementamos o Método dos Modelos Parciais para modelamento de CMDs, incluindo experimentos controlados para a comprovação da validade deste método na busca de vínculos ao histórico de formação estelar da Grande Nuvem de Magalhães em dife!entes regiões. Recuperamos SFHs confiáveis para cada um dos 6 campos da LMC. Observamos variações na formação estelar de um campo para outro. Em todos os campos encontramos uma lacuna na formação estelar com 7 rv 700 Mano. Os dois campos próximos à barra (NGC1805 e NGC1818) apresentam alguns pequenos surtos, tendo formado em sua maioria, estrelas velhas ou relativamente jovens. Já os campos próximos a NGC1831 e NGC1868 apresentam formação estelar que se aproxima de um histórico de formação estelar uniforme, com alguns pequenos surtos. Os campos NGC2209 e Hodge 11 apresentam três períodos de formação estelar muitos semelhantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dois experimentos e um levantamento por amostragem foram analisados no contexto de dados espaciais. Os experimentos foram delineados em blocos completos casualizados sendo que no experimento um (EXP 1) foram avaliados oito cultivares de trevo branco, sendo estudadas as variáveis Matéria Seca Total (MST) e Matéria Seca de Gramíneas (MSGRAM) e no experimento dois (EXP 2) 20 cultivares de espécies forrageiras, onde foi estudada a variável Percentagem de Implantação (%IMPL). As variáveis foram analisadas no contexto de modelos mistos, sendo modelada a variabilidade espacial através de semivariogramas exponencias, esféricos e gaussianos. Verificou-se uma diminuição em média de 19% e 14% do Coeficiente de Variação (CV) das medias dos cultivares, e uma diminuição em média de 24,6% e 33,3% nos erros padrões dos contrastes ortogonais propostos em MST e MSGRAM. No levantamento por amostragem, estudou-se a associação espacial em Aristida laevis (Nees) Kunth , Paspalum notatum Fl e Demodium incanum DC, amostrados em uma transecção fixa de quadros contiguos, a quatro tamanhos de unidades amostrais (0,1x0,1m; 0,1x0,3m; 0,1x0,5m; e 0,1x1,0m). Nas espécies Aristida laevis (Nees) Kunth e Paspalum notatum Fl, existiu um bom ajuste dos semivariogramas a tamanhos menores das unidades amostrais, diminuíndo quando a unidade amostral foi maior. Desmodium incanum DC apresentou comportamento contrario, ajustando melhor os semivariogramas a tamanhos maiores das unidades amostrais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A medida da translucência nucal (TN) entre 11 e 14 semanas de gestação é um exame ultra-sonográfico que mede a camada líquida na região cervical posterior do feto, sendo observado um aumento de espessura nas anomalias cromossômicas, especialmente na trissomia 21. Com sua crescente utilização, outras anormalidades fetais têm sido descritas em associação a um aumento da TN. O objetivo deste trabalho foi avaliar o desempenho da medida da TN na detecção de diferentes anomalias fetais e outros efeitos adversos para a gestação. Realizou-se de um estudo observacional, no período de 1996 a 2004, com gestantes avaliadas no Ambulatório de Aconselhamento Genético para Diagnóstico Pré-natal do Hospital de Clínicas de Porto Alegre por risco aumentado de anomalia congênita, e que haviam realizado a medida da TN. Foram consideradas adequadas as TN realizadas de acordo com a padronização da Fundação de Medicina Fetal de Londres, e aumentadas aquelas TN com valor cima do percentil 95 para idade gestacional. Das 443 gestantes avaliadas, 38 seguimentos foram perdidos, 4 gestações estavam em curso na análise final dos dados, finalizando 401 gestações com desfecho conhecido. Em 275 gestações com TN adequada, a medida aumentada foi significativamente associada a anormalidades congênitas em geral (p 0,000000), cromossomopatias (p 0,000059) e perdas gestacionais (p 0,000000), sendo aumentada em oito dos 14 casos de cromossomopatia e em 6/7 dos casos com Síndrome de Down. Por outro lado, no grupo das TN inadequadas (126 casos), a associação entre TN aumentada não foi significativa para defeitos congênitos em geral (p 0,641396), nem para cromossomopatias (p 0,329194) ou perdas gestacionais (p 0,096092). Especificamente com relação aos erros inatos do metabolismo (EIM) no feto, foram localizados relatos e séries de casos com TN aumentada em dez diferentes EIM. Nas dezenove gestantes com história familiar de EIM e com medida da TN, houve um caso de uma menina afetada por MPS I com TN aumentada, e um de Raquitismo Resistente à Vitamina D com TN normal. Nos outros 17 casos, a medida da TN foi normal e não havia evidência de um EIM. Entre as novas associações de TN aumentada com síndromes genéticas, relatamos um paciente com Síndrome de Artrogripose, Anomalia renal e Colestase (ARC), cuja análise molecular na Universidade de Birmingham identificou uma mutação sem sentido (1518C>T) em homozigose no gene VPS33B. Concluiu-se que o desempenho da TN na detecção de anomalias congênitas depende da qualidade do exame, sendo que uma medida adequada aumentada está significativamente associada a defeitos congênitos, cromossomopatias e a outros desfechos gestacionais adversos, e que a sensibilidade da TN é especialmente elevada na detecção da síndrome de Down.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta o desenvolvimento de um projeto para análise experimental em semeadoras agrícolas a fim de levantar dados sobre as deformações e solicitações mecânicas na sua estrutura, bem como nos diversos componentes da máquina. Visa-se o desenvolvimento de uma ferramenta / metodologia que permita localizar as regiões de maior deformação mecânica, quantificar estas deformações e registrá-las de forma dinâmica com a máquina realizando seu trabalho em campo para posterior análise dos dados. Para o desenvolvimento deste trabalho foi realizada a averiguação do estado da arte na análise experimental de tensões. Posteriormente foi feito um estudo para verificar quais dos métodos experimentais poderiam ser utilizados e qual destes métodos poderia apresentar melhores resultados para este caso. As características básicas de cada método receberam classificação e estes dados foram colocados em um programa comercial de QFD. Este estudo considerou que o baixo custo de implementação e a facilidade de operação devem apresentar maior importância. O estudo mostrou que nenhum dos métodos isoladamente atende a todos os requisitos exigidos. A fim de que atender as necessidades decidiu-se pela aplicação de dois métodos: Camada Frágil e Extensometria. O primeiro método utilizado inicialmente para localizar os pontos de maior deformação do equipamento, enquanto o segundo método fornece dados quantitativos para a posterior análise dos dados. Assim, os dois métodos escolhidos são apresentados com maior detalhamento. Este trabalho ainda apresenta uma descrição de problemas encontrados na aplicação de cada método, bem como as soluções adotadas; descreve detalhes de equipamentos e materiais comerciais utilizados e discute detalhes do processo experimental empregado. Posteriormente são discutidos os erros experimentais Os resultados obtidos demonstram que o método escolhido atendeu as necessidades e que foi capaz de proporcionar arquivos contendo dados sobre as deformações mecânicas dos componentes quando submetidos aos carregamentos dinâmicos encontrados no trabalho em campo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Public administration has been labeled as inefficient for decades, with society seen it as a great waste of public money with a low generation of results. Its services are notably classified as sluggish, bureaucratic, with a low productivity level and a high incidence of mistakes. In periods of crisis, public administration must be the first to give good examples of balance and parsimony in its expenditures, or it could lead to the failure of the government, in general, causing damages to the population. To reach this goal, some corrective measures must be done, in different directions, by selecting the expenditures and fostering the maximum economy for the exchequer. This is only possible through the application of correct planning techniques, a still far way reality from the culture of our public organisms. One way to this change is the adoption of the Price Registration System, that in the Federal scope was already adopted by the Decree nº 3.931/01, and in the scope of the municipality of Manaus was ordered by the Decree nº 8.270/06. The present study verifies the influence of the use of the Price Registration System in purchases and contracts undertaken by the Local Secretariat of Construction, Basic Services and Housing, in the city of Manaus concerning the economy obtained when compared to other methods of tenders.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A descoberta e a análise de conglomerados textuais são processos muito importantes para a estruturação, organização e a recuperação de informações, assim como para a descoberta de conhecimento. Isto porque o ser humano coleta e armazena uma quantidade muito grande de dados textuais, que necessitam ser vasculhados, estudados, conhecidos e organizados de forma a fornecerem informações que lhe dêem o conhecimento para a execução de uma tarefa que exija a tomada de uma decisão. É justamente nesse ponto que os processos de descoberta e de análise de conglomerados (clustering) se insere, pois eles auxiliam na exploração e análise dos dados, permitindo conhecer melhor seu conteúdo e inter-relações. No entanto, esse processo, por ser aplicado em textos, está sujeito a sofrer interferências decorrentes de problemas da própria linguagem e do vocabulário utilizado nos mesmos, tais como erros ortográficos, sinonímia, homonímia, variações morfológicas e similares. Esta Tese apresenta uma solução para minimizar esses problemas, que consiste na utilização de “conceitos” (estruturas capazes de representar objetos e idéias presentes nos textos) na modelagem do conteúdo dos documentos. Para tanto, são apresentados os conceitos e as áreas relacionadas com o tema, os trabalhos correlatos (revisão bibliográfica), a metodologia proposta e alguns experimentos que permitem desenvolver determinados argumentos e comprovar algumas hipóteses sobre a proposta. As conclusões principais desta Tese indicam que a técnica de conceitos possui diversas vantagens, dentre elas a utilização de uma quantidade muito menor, porém mais representativa, de descritores para os documentos, o que torna o tempo e a complexidade do seu processamento muito menor, permitindo que uma quantidade muito maior deles seja analisada. Outra vantagem está no fato de o poder de expressão de conceitos permitir que os usuários analisem os aglomerados resultantes muito mais facilmente e compreendam melhor seu conteúdo e forma. Além do método e da metodologia proposta, esta Tese possui diversas contribuições, entre elas vários trabalhos e artigos desenvolvidos em parceria com outros pesquisadores e colegas.