130 resultados para Vetores de correção de erros (VEC)

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo específico da presente dissertação é estimar a elasticidade-PIB do Imposto de Renda Pessoa Física (IRPF) e Imposto Renda Pessoa Jurídica (IRPJ) no Brasil entre 1986 e 2012. A pesquisa também incorpora em seus objetivos uma análise técnica a respeito da tributação e seus impactos sobre o sistema econômico, tanto a nível microeconômico e macroeconômico, além de abordar o IRPF e IRPJ em seu aspecto econômico e jurídico. No tratamento metodológico são utilizados modelos de Vetor de Correção de erros (VEC) para estimar as elasticidades-PIB do IRPF e IRPJ. Os resultados apontam uma elasticidade-PIB, tanto para IRPF quanto IRPJ, acima da unidade, na maioria dos modelos estimados, e existem períodos determinados que impactam consideravelmente sobre à arrecadação desses tributos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No âmbito de uma democracia constitucional que adota o controle judicial de constitucionalidade, o Judiciário sempre possui o poder de ser o árbitro definitivo das questões constitucionais? O trabalho investiga as alternativas legislativas que o Congresso pode adotar com a intenção de corrigir decisões do Supremo Tribunal Federal, especialmente no Direito Tributário. Discute argumentos contrários à supremacia judicial, especialmente utilizando a doutrina norte-americana, e defende que a doutrina do diálogo constitucional pode desempenhar um papel relevante na interpretação constitucional, pois ressalta o fato de que o Legislativo possui uma importante participação na tarefa de definir o conteúdo da Constituição. Também são examinadas teorias da ciência política que trabalham com a hipótese de que as fronteiras entre os poderes no princípio da separação de poderes tornaram-se cinzentas. Neste sentido, a correção legislativa da jurisprudência pode preencher um importante papel na democracia, pois representa a possibilidade de uma troca de experiências entre os poderes do Estado e permite que interesses derrotados na esfera judicial possam apresentar novos argumentos em esfera diversa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo teórico e numérico sobre os erros que ocorrem nos cálculos de gradientes em malhas não estruturadas constituídas pelo diagrama de Voronoi, malhas estas, formadas também pela triangulação de Delaunay. As malhas adotadas, no trabalho, foram as malhas cartesianas e as malhas triangulares, esta última é gerada pela divisão de um quadrado em dois ou quatro triângulos iguais. Para tal análise, adotamos a escolha de três metodologias distintas para o cálculo dos gradientes: método de Green Gauss, método do Mínimo Resíduo Quadrático e método da Média do Gradiente Projetado Corrigido. O texto se baseia em dois enfoques principais: mostrar que as equações de erros dadas pelos gradientes podem ser semelhantes, porém com sinais opostos, para pontos de cálculos em volumes vizinhos e que a ordem do erro das equações analíticas pode ser melhorada em malhas uniformes quando comparada as não uniformes, nos casos unidimensionais, e quando analisada na face de tais volumes vizinhos nos casos bidimensionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho analisa os africanos livres durante a construção da Casa de Correção da Corte. Para conhecer esse caminho, a investigação começa com a lei de 7 de novembro de 1831 e termina com a inauguração da primeira prisão com trabalho do país, em 1850. A dissertação tem como fio condutor o estudo da produção jurídica sobre os africanos livres e para isso, levam-se em consideração três eixos documentais: as leis brasileiras, os relatórios ministeriais e os despachos burocráticos relativos à administração da casa. O exame dessa material possibilita a operacionalização da noção de disciplinarização e como ela construiu a identidade dos africanos livres como trabalhadores. A disciplina como instrumento de formação de trabalhadores foi o meio de viabilizar a utilização dessa mão de obra. Esse estudo, ao problematizar aos africanos livres na condição de trabalhadores debate as formas de trabalho no Império do Brasil, colocando em pauta as experiências da escravidão e as expectativas do trabalho livre. E nessa análise, o sentido político das enunciações jurídicas foi o cerne para entendimentos desses agentes históricos. Dessa forma, eles foram instruídos e capacitados em diferentes ofícios, na qual recebiam salário e pagavam por sua subsistência. Nesse sentido, a dissertação se estrutura na relação da produção jurídica com a experimentação do trabalho livre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um método numérico nodal livre de erros de truncamento espacial é desenvolvido para problemas adjuntos de transporte de partículas neutras monoenergéticas em geometria unidimensional com fonte fixa na formulação de ordenadas discretas (SN). As incógnitas no método são os fluxos angulares adjuntos médios nos nodos e os fluxos angulares adjuntos nas fronteiras dos nodos, e os valores numéricos gerados para essas quantidades são os obtidos a partir da solução analítica das equações SN adjuntas. O método é fundamentado no uso da convencional equação adjunta SN discretizada de balanço espacial, que é válida para cada nodo de discretização espacial e para cada direção discreta da quadratura angular, e de uma equação auxiliar adjunta não convencional, que contém uma função de Green para os fluxos angulares adjuntos médios nos nodos em termos dos fluxos angulares adjuntos emergentes das fronteiras dos nodos e da fonte adjunta interior. Resultados numéricos são fornecidos para ilustrarem a precisão do método proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Manguezal é um ecossistema costeiro que ocorre nas regiões tropicais e subtropicais do planeta, ocupando a zona entremarés dos oceanos, e sendo caracterizado pela presença de vegetação arbórea adaptada à condições adversas de salinidade, substrato, baixa oxigenação e submersão periódica. A pressão sobre os manguezais do Estado do Rio de Janeiro vem se intensificando nas últimas décadas, e estão associadas a vetores de pressão como os aterros, desmatamentos, queimadas, corte seletivo de madeira, captura predatória de moluscos e crustáceos, lançamento de efluentes de origens diversas, a superexplotação dos recursos pesqueiros e a utilização de técnicas e apetrechos inadequados. Considerando a inexistência de mapeamento integrado e atualizado dos remanescentes de manguezal, indicando sua localização e dimensionamento, o presente estudo veio suprir essa demanda, construindo uma ferramenta consistente para a análise dos principais vetores a que estão expostos, subsidiando a proposição de ações para a conservação e monitoramento desse ecossistema. Essas ações consideram a necessidade de preservação da biodiversidade, da manutenção da atividade pesqueira, da estabilidade da linha de costa, e da subsistência de diversas populações que habitam a região costeira. O mapeamento dos manguezais do Estado do Rio de Janeiro foi elaborado a partir da interpretação visual de ortofotografias coloridas do ano de 2005, na escala 1:10.000, tendo sido realizadas checagens de campo para identificação da verdade terrestre. Os remanescentes mapeados totalizam uma área de aproximadamente 17.720 ha, estando distribuídos por sete regiões hidrográficas localizadas na zona costeira fluminense. Esses ocorrem com mais freqüência, e com maiores dimensões, nas regiões da baía da Ilha Grande, Guandu(Sepetiba) e baía de Guanabara. O estudo contemplou ainda o levantamento e sistematização de dados cartográficos e de sensoriamento remoto, e a identificação e análise dos principais vetores de pressão que atuam sobre esses, a partir da adaptação da metodologia da Análise de Cadeia Causal. Nessa análise foram identificados como principais problemas ambientais dos manguezais fluminenses, a Modificação de habitats e comunidades, a Poluição, e a Exploração não sustentável dos recursos pesqueiros, todos associados aos diferentes vetores de pressão já relacionados. Por fim, foram apresentadas propostas de ações para subsidiar a implementação da Política Estadual para a Conservação dos Manguezais do Estado do Rio de Janeiro, contemplando os níveis operacional, de planejamento, e político. A reativação do Grupo Técnico Permanente sobre Manguezais é de vital importância para a retomada dessas discussões e para a implementação de ações, apoiado na ampliação dos conhecimentos sobre esse rico ecossistema e, integrando e fortalecendo a atuação dos diversos atores envolvidos, buscando assim garantir a integridade dos manguezais fluminenses

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho propõe analisar metodologias para o cálculo do gradiente em malhas não-estruturadas do tipo Voronoi que são utilizadas no método de Volumes Finitos. Quatro metodologias para o cálculo do gradiente são testadas e comparadas com soluções analíticas. As técnicas utilizadas são: Método do Balanço de Forças, Método do Mínimo Resíduo Quadrático, Método da Média dos Gradientes Projetos e Método da Média dos Gradientes Projetados Corrigidos. Uma análise por série de Taylor também foi feita, e as equações analíticas comparadas com resultados numéricos. Os testes são realizados em malhas cartesianas e malhas triangulares, que em um trabalho anterior apresentaram alguns resultados inconsistentes. A influência do ponto gerador e do ângulo de rotação é analisada. É verificado que a posição do ponto gerador e a metodologia utilizada em cada malha influencia no cálculo do gradiente. Dependendo da malha e da metodologia utilizada, as equações analíticas indicaram que existem erros associados, que prejudicam o cálculo do gradiente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma análise utilizando a série de Taylor é apresentada para se estimar a priori os erros envolvidos na solução numérica da equação de advecção unidimensional com termo fonte, através do Método dos Volumes Finitos em uma malha do tipo uniforme e uma malha não uniforme. Também faz-se um estudo a posteriori para verificar a magnitude do erro de discretização e corroborar os resultados obtidos através da análise a priori. Por meio da técnica de solução manufaturada tem-se uma solução analítica para o problema, a qual facilita a análise dos resultados numéricos encontrados, e estuda-se ainda a influência das funções de interpolação UDS e CDS e do parâmetro u na solução numérica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O reconhecimento de padões é uma área da inteligência computacional que apoia a resolução de problemas utilizando ferramentas computacionais. Dentre esses problemas podem ser citados o reconhecimento de faces, a identificação de impressões digitais e a autenticação de assinaturas. A autenticação de assinaturas de forma automática tem sua relevância pois está ligada ao reconhecimento de indivíduos e suas credenciais em sistemas complexos e a questões financeiras. Neste trabalho é apresentado um estudo dos parâmetros do Dynamic Time Warping, um algoritmo utilizado para alinhar duas assinaturas e medir a similaridade existente entre elas. Variando-se os principais parâmetros desse algoritmo, sobre uma faixa ampla de valores, foram obtidas as médias dos resultados de erros na classificação, e assim, estas médias foram avaliadas. Com base nas primeiras avaliação, foi identificada a necessidade de se calcular um desses parâmetros de forma dinâmica, o gap cost, a fim de ajustá-lo no uso de uma aplicação prática. Uma proposta para a realização deste cálculo é apresentada e também avaliada. É também proposta e avaliada uma maneira alternativa de representação dos atributos da assinatura, de forma a considerar sua curvatura em cada ponto adquirido no processo de aquisição, utilizando os vetores normais como forma de representação. As avaliações realizadas durante as diversas etapas do estudo consideraram o Equal Error Rate (EER) como indicação de qualidade e as técnicas propostas foram comparadas com técnicas já estabelecidas, obtendo uma média percentual de EER de 3,47%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é verificar, de forma teórico-conceitual, como as escolhas do professor sobre o objeto da produção textual estão pautadas em documentos oficiais, tendo como base os estudos linguísticos ou a gramática normativa. Busca-se refletir sobre a abordagem que atualmente é encontrada no ensino da Língua Portuguesa, uma visão preponderantemente voltada para a interação discursiva, tendo como objetivo o estudo da textualidade e dos diferentes gêneros textuais. Como tal abordagem trabalha com o texto de forma reduzida, pois não considera o que é dito, mas atribui maior importância a estrutura do texto, o ensino acaba por não considerar o sujeito do discurso. Para entender a linha teórica escolhida pelos documentos oficiais e que acabam por refletir na prática do professor, realiza-se uma análise dos principais documentos oficiais que servem como base ao processo de ensino-aprendizagem (Parâmetros Curriculares Nacionais, Diretrizes Curriculares e Matrizes de Referência do Sistema de Avaliação da Educação Básica) e uma comparação com dados da histórica do ensino de Língua Portuguesa e da teoria do currículo, buscando relacionar o paradigma de educação Moderno e o Pós-moderno com as práticas em sala de aula.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

MENEZES, Patrick Lourenço. Erros pré-analíticos em medicina laboratorial: uma revisão sistemática. 2013. 98 f. Dissertação (Mestrado em Saúde, Medicina Laboratorial e Tecnologia Forense) - Instituto de Biologia Roberto Alcântara Gomes, Universidade do Estado do Rio de Janeiro, Rio de Janeiro, 2013. A relevância evidente dos erros pré-analíticos como problema de saúde pública fica patente tanto no dano potencial aos pacientes quanto nos custos ao sistema de saúde, ambos desnecessários e evitáveis. Alguns estudos apontam que a fase pré-analítica é a mais vulnerável a erros, sendo responsável por, aproximadamente, 60 a 90% dos erros laboratoriais em consequência da falta orientação aos pacientes sobre os procedimentos que serão realizados no laboratório clínico. Objetivos: Sistematizar as evidências científicas relacionadas aos erros pré-analíticos dos exames laboratoriais de análises clínicas. Método: Uma revisão sistemática foi realizada, buscando as bases de dados do Medical Literature Analysis and Retrieval System Online (MEDLINE), Scopus(que inclui MEDLINE e Embase), ISI Web of Knowledge, SciFinder, Literatura Latino-Americana e do Caribe em Ciências da Saúde (Lilacs) (que inclui a Scientific Electronic Library Online SciELO) e o Índice Bibliográfico Espanhol de Ciências de Saúde (IBECS), para artigos publicados entre janeiro de 1990 e junho de 2012 sobre erros de exames laboratoriais que possam ocorrer na fase pré-analítica. Os estudos foram incluídos de acordo com os seguintes exames laboratoriais: hemograma, análise bioquímica do sangue total ou do soro, exames de coagulação sanguínea,uroanálise e exames hematológicos ou bioquímicos em outros materiais e categorizados pelo tipo de erro pré-analítico e pela frequência dos incidentes. Resultados: A busca nas bases de dados bibliográficas resultou no seguinte número de artigos recuperados: 547 na MEDLINE, 229 na Scopus, 110 na ISI, 163 na SciFinder, 228 na Lilacs e 64 na IBECS, perfazendo um total de 1.341 títulos. Ao fim da revisão sistemática, obteve-se um conjunto de 83 artigos para leitura de texto completo, dos quais 14 foram incluídos na revisão. Os estudos abrangeram diferentes tipos de laboratórios, setores técnicos e origem de erros, segundo a fase do processo laboratorial. Discussão: Sete artigos demonstraram erros de pedidos médicos, com uma alta variabilidade nos valores de incidência. Os seis artigos que estudaram erros de coleta de amostra observaram redução deste desfecho. As proporções de eventos adversos relatados e os impactos clínicos variaram, levando a consequências descritas como: erros decorrentes da flebotomia, recoleta de amostras, repetições de exames, atrasos na liberação de resultados de exames e possíveis danos ao paciente. Conclusões: O laboratório deve ter instruções por escrito para cada teste, que descreva o tipo de amostra e procedimento de coleta de amostra. Meios de identificação por código de barras, sistemas robóticos e analíticos reduzem os erros pré-analíticos. A melhoria da fase pré-analítica de testes laboratoriais permanece um desafio para muitos laboratórios clínicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação se insere na temática mais ampla do processo recente de integração da América do Sul, caracterizado pelo fenômeno o regionalismo pós-liberal. O objetivo deste trabalho é analisar os fatores políticos e econômicos que influenciaram a posição brasileira em relação ao regionalismo sul-americano na última década, mais notadamente no período compreendido entre os anos de 2003 e 2010. A tese aqui defendida é de que a ampliação das ações para o desenvolvimento regional, a qual passa por uma mudança no modelo de regionalismo brasileiro, não é fenômeno meramente conjuntural, resultante de fatores materiais (alta dos preços das commodities) ou ideacionais (chegada ao poder da corrente autonomista representada pelo governo do Partido dos Trabalhadores). Trata-se, isto sim, de um novo imperativo político, qual seja, a legitimação do país no continente em um contexto em que as diferenças políticas e econômicas entre o Brasil e seus vizinhos tornam-se cada vez mais gritantes, e pelo qual far-se-á necessária uma ação para a correção das assimetrias estruturais existentes na região, da qual o Brasil será o principal financiador. Nesse sentido, além de descrever quantitativamente a atuação dos principais vetores de atuação do Brasil no âmbito da integração estrutural no continente (IIRSA, BNDES e FOCEM), busca-se realizar uma análise crítica da atuação do país Banco na região, avaliando se, efetivamente, pode-se verificar uma rationale política consistente e direcionada a partir da ação dos referidos instrumentos de política externa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi estabelecer um modelo empregando-se ferramentas de regressão multivariada para a previsão do teor em ésteres metílicos e, simultaneamente, de propriedades físico-químicas de misturas de óleo de soja e biodiesel de soja. O modelo foi proposto a partir da correlação das propriedades de interesse com os espectros de reflectância total atenuada no infravermelho médio das misturas. Para a determinação dos teores de ésteres metílicos foi utilizada a cromatografia líquida de alta eficiência (HPLC), podendo esta ser uma técnica alternativa aos método de referência que utilizam a cromatografia em fase gasosa (EN 14103 e EN 14105). As propriedades físico-químicas selecionadas foram índice de refração, massa específica e viscosidade. Para o estudo, foram preparadas 11 misturas com diferentes proporções de biodiesel de soja e de óleo de soja (0-100 % em massa de biodiesel de soja), em quintuplicata, totalizando 55 amostras. A região do infravermelho estudada foi a faixa de 3801 a 650 cm-1. Os espectros foram submetidos aos pré-tratamentos de correção de sinal multiplicativo (MSC) e, em seguida, à centralização na média (MC). As propriedades de interesse foram submetidas ao autoescalamento. Em seguida foi aplicada análise de componentes principais (PCA) com a finalidade de reduzir a dimensionalidade dos dados e detectar a presença de valores anômalos. Quando estes foram detectados, a amostra era descartada. Os dados originais foram submetidos ao algoritmo de Kennard-Stone dividindo-os em um conjunto de calibração, para a construção do modelo, e um conjunto de validação, para verificar a sua confiabilidade. Os resultados mostraram que o modelo proposto por PLS2 (Mínimos Quadrados Parciais) foi capaz de se ajustar bem os dados de índice de refração e de massa específica, podendo ser observado um comportamento aleatório dos erros, indicando a presença de homocedasticidade nos valores residuais, em outras palavras, o modelo construído apresentou uma capacidade de previsão para as propriedades de massa específica e índice de refração com 95% de confiança. A exatidão do modelo foi também avaliada através da estimativa dos parâmetros de regressão que são a inclinação e o intercepto pela Região Conjunta da Elipse de Confiança (EJCR). Os resultados confirmaram que o modelo MIR-PLS desenvolvido foi capaz de prever, simultaneamente, as propriedades índice de refração e massa específica. Para os teores de éteres metílicos determinados por HPLC, foi também desenvolvido um modelo MIR-PLS para correlacionar estes valores com os espectros de MIR, porém a qualidade do ajuste não foi tão boa. Apesar disso, foi possível mostrar que os dados podem ser modelados e correlacionados com os espectros de infravermelho utilizando calibração multivariada