986 resultados para característica categórica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo analisa a relação entre poder e solidariedade em redes de economia solidária através da observação de como tais redes distribuem o poder, já que sua pretensão organizacional é opor-se ao modelo hierárquico e assimétrico. O argumento de que o poder permeia as relações sociais, a ponto de se tornar elemento estrutural dessa relação, incita um debate crítico com a teoria sistêmica que compreende o poder como mecanismo funcional na análise social. Nossa perspectiva teórica parte do pressuposto de que a realidade social é resultado da ação do poder. Michel Foucault (1926-1984) argumenta que o poder se materializa a partir de categorias operacionais como a disciplina, mas recorrer a estas categorias não significa aceitar somente a face repressiva do poder. Segundo o autor, o poder deve ser analisado pela sua característica produtiva, na medida em que movimenta suas “máquinas”, “molda corpos” e cria sujeitos disciplinados e dispostos a assumir e executar suas estratégias. Estes dois atributos do poder são fundamentais para a percepção do nosso objeto empírico. Com efeito, as redes atuam na perspectiva da articulação de diferentes atores para o seu empoderamento mútuo. Nesta articulação o poder emerge como disciplinador, subjugando, submetendo e enquadrando seus integrantes às normas da rede, além de colocar em circulação os interesses e estratégias entre seus diferentes segmentos. Neste sentido, mais do que entender o poder “das” redes de economia solidária, nos interessa discutir o “como” do seu exercício e entender como o poder organiza as relações sociais em redes de economia solidária. As categorias que permitem a análise de uma relação de poder são a diferenciação interna e os objetivos dos integrantes da rede, os meios e recursos disponíveis para exercício do poder, a possibilidade de representação da rede e o domínio de processos burocráticos. A estas categorias somam-se a análise da especificidade da instituição, seu discurso, trajetória e estrutura, o grau de racionalização dos discursos disciplinares, as formas de organização dos indivíduos no espaço de abrangência da rede, o controle sobre o tempo, a vigilância exercida e o registro contínuo do conhecimento sobre os integrantes da rede. Além disto, procuramos observar a prática do olhar hierárquico, da sanção normalizadora e do exame, como efeitos visíveis do poder disciplinar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe um modelo para definir o custo-alvo com base no sistema de custeamento por atividades, no âmbito da cadeia de agronegócios de leite. Constatado a falta de conhecimento prévio na literatura disponível, foi questionado a contribuição do modelo na gestão de custos interorganizacionais. A fronteira de estudo ateve-se ao setor lácteo. A pesquisa é classificada como um estudo de caso do tipo embedded. E ainda considerando o caráter central da investigação todas as ações apontam nas direções de uma pesquisa-ação. No entanto, considerando os settings de pesquisa e a própria característica dos atores o estudo recorre ao recurso metodológico da etnografia. Entende-se que o enfoque etnográfico empreendido na investigação se emparelha ao recurso da pesquisa-ação. Investido na categoria de participante completo, o pesquisador procedeu adoção da observação conforme suas variantes: descritivas, focais, seletivas e esgotadas. Paralelamente a seqüência observacional, a entrevista com especialistas e a entrevista etnográfica se mostraram promissoras. Apesar dos recursos tecnológicos de registro de informações adotou o diário de campo como principal meio A interpretação e a atribuição de significados foram exercidas durante um processo qualitativo, não requerendo o uso de métodos e técnicas estatísticas. Como o ambiente natural é a fonte direta na captação dos dados e o pesquisador é o instrumento-chave, o procedimento analítico dos dados foi indutivo. O estudo revela-se um avanço no conhecimento, preenchendo uma lacuna existente na literatura sobre agronegócios. A modelagem se delineia favorável em seus resultados, mas requerendo replicações de forma a catalisar a robustez.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitos são os maçons que se destacaram como líderes nas mais diferentes épocas e nos mais diversos setores da sociedade. Tendo a experiência e formação maçônica como característica comum entre tais líderes, a compreensão da relação entre a Maçonaria e a liderança e a mensuração da influência dos líderes maçônicos sobre seus liderados, os quais podem também serem líderes em suas atividades sociais e profissionais, tornam-se de grande relevância para a ciência da administração e a sociedade, de uma forma geral. Tomando por base as teorias de aprendizagem social, de troca social e de identidade social, e partindo da premissa da liderança ética, referenciada pela literatura maçônica, o objetivo deste estudo foi avaliar o impacto da liderança ética na identidade moral e na identificação com a organização, considerando ainda as respectivas consequências nos comportamentos dos liderados dentro e fora da organização maçônica. Ao todo, 13 hipóteses foram formuladas, gerando dois modelos de pesquisa que foram testados empiricamente por meio de estudo quantitativo realizado com 1571 maçons de todas as Unidades Federativas do Brasil. A discussão dos resultados foi enriquecida com a análise de conteúdo de uma questão aberta presente no questionário, respondida por 933 participantes. Os resultados indicam uma influência positiva da liderança ética sobre a identidade moral simbolizada e internalizada dos maçons, sobre seu comportamento prósocial, sua identificação com a Loja Maçônica, sua satisfação com a vida e com a consciência e voz de grupo. Por fim, as implicações teóricas e práticas dos resultados obtidos são discutidas e sugestões para futuras pesquisas são apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta por três artigos. Dois deles investigam assuntos afeitos a tributação e o terceiro é um artigo sobre o tema “poupança”'. Embora os objetos de análise sejam distintos, os três possuem como característica comum a aplicação de técnicas de econometria de dados em painel a bases de dados inéditas. Em dois dos artigos, utiliza-se estimação por GMM em modelos dinâmicos. Por sua vez, o artigo remanescente é uma aplicação de modelos de variável dependente latente. Abaixo, apresenta-se um breve resumo de cada artigo, começando pelos dois artigos de tributação, que dividem uma seção comum sobre o ICMS (o imposto estadual sobre valor adicionado) e terminando com o artigo sobre poupança. O primeiro artigo analisa a importância da fiscalização como instrumento para deter a evasão de tributos e aumentar a receita tributária, no caso de um imposto sobre valor adicionado, no contexto de um país em desenvolvimento. O estudo é realizado com dados do estado de São Paulo. Para tratar questões relativas a endogeneidade e inércia na série de receita tributária, empregam-se técnicas de painel dinâmico. Utiliza-se como variáveis de controle o nível do PIB regional e duas proxies para esforço fiscal: a quantidade e o valor das multas tributárias. Os resultados apontam impacto significativo do esforço fiscal nas receitas tributárias. O artigo evidencia, indiretamente, a forma como a evasão fiscal é afetada pela penalidade aplicada aos casos de sonegação. Suas conclusões também são relevantes no contexto das discussões sobre o federalismo fiscal brasileiro, especialmente no caso de uma reforma tributária potencial. O segundo artigo examina uma das principais tarefas das administrações tributárias: a escolha periódica de contribuintes para auditoria. A melhora na eficiência dos mecanismos de seleção de empresas tem o potencial de impactar positivamente a probabilidade de detecção de fraudes fiscais, provendo melhor alocação dos escassos recursos fiscais. Neste artigo, tentamos desenvolver este mecanismo calculando a probabilidade de sonegação associada a cada contribuinte. Isto é feito, no universo restrito de empresas auditadas, por meio da combinação “ótima” de diversos indicadores fiscais existentes e de informações dos resultados dos procedimentos de auditoria, em modelos de variável dependente latente. Após calculados os coeficientes, a probabilidade de sonegação é calculada para todo o universo de contribuintes. O método foi empregado em um painel com micro-dados de empresas sujeitas ao recolhimento de ICMS no âmbito da Delegacia Tributária de Guarulhos, no estado de São Paulo. O terceiro artigo analisa as baixas taxas de poupança dos países latino-americanos nas últimas décadas. Utilizando técnicas de dados em painel, identificam-se os determinantes da taxa de poupança. Em seguida, faz-se uma análise contrafactual usando a China, que tem apresentado altas taxas de poupança no mesmo período, como parâmetro. Atenção especial é dispensada ao Brasil, que tem ficado muito atrás dos seus pares no grupo dos BRICs neste quesito. O artigo contribui para a literatura existente em vários sentidos: emprega duas amplas bases de dados para analisar a influência de uma grande variedade de determinantes da taxa de poupança, incluindo variáveis demográficas e de previdência social; confirma resultados previamente encontrados na literatura, com a robustez conferida por bases de dados mais ricas; para alguns países latino-americanos, revela que as suas taxas de poupança tenderiam a aumentar se eles tivessem um comportamento mais semelhante ao da China em outras áreas, mas o incremento não seria tão dramático.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Orçamento Público configura-se como o principal instrumento de planejamento e gestão da administração pública. Cabe destacar no mesmo, a existência de uma característica dual, sendo de um lado delimitado por uma perspectiva normativa e legal e, de outro, pressionado por mudanças e anseios sociais. Considerando esta característica, buscou-se destacar quais foram as principais iniciativas por parte do Legislativo Federal para modificar a estrutura do orçamento público, atuando diretamente nas leis que o regem. O período escolhido compreendeu os anos entre 1990 e 2010, caracterizado pelo processo de consolidação democrática e de modificação institucional do país. Os resultados mostram que parte dos esforços prospectivos de reforma orçamental no caso brasileiro busca reverter a histórica tendência do centralismo decisório do Executivo Federal e também limitar sua discricionariedade no trato do Orçamento Público.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo busca a compreensão dos matizes das significações do ato infracional da adolescência feminina em cumprimento de medida sócio-educativa no Programa de PSC – Prestação de Serviços à Comunidade da UFRGS. A apreensão das significações do ato infracional se dá a partir dos elementos contidos nas entrevistas em profundidade realizadas com três meninas e nos registros dos relatos das demais que passaram pelo Programa de julho/1997 a dezembro/2003. No processo de análise, ancorado na perspectiva da RedSig – Rede de Significações, são levados em conta os aspectos desenvolvimentais da fase adolescente e os aspectos sócio-econômico-culturais que possam tecer as significações do ato infracional da adolescência feminina. Dentre alguns matizes das significações do ato infracional cometido pelas meninas identifica-se uma estreita relação com a fragilidade das suas relações sócio-familiares e com as suas parcas condições econômicas que, somadas ao apelo da mídia ao modismo contemporâneo, as impele ao cometimento de infrações contra o patrimônio, especialmente de furtos e roubos. Outros matizes se referem à necessidade imperiosa das meninas de se sentirem pertencentes ao grupo de iguais e de se lançarem no experimento de coisas novas e desafiantes – característica peculiar da adolescência –, bem como de buscarem subterfúgios para abrandar as contradições vivenciadas nessa fase. Há ainda a necessidade de manter a sua integridade, de ter reparado os seus prejuízos e o desejo de ocupar um lugar de reconhecimento. Sobretudo, um outro matiz das significações de seu ato infracional aponta uma íntima relação com o sexo masculino, especialmente na ocorrência de brigas com outras meninas, evidenciando a disputa do amor pelo sexo que lhe é oposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos dez anos, milhares de trabalhos foram publicados somente no desenvolvimento da técnica de eletroforese capilar (CE) e suas aplicações em ciências biológicas, química e em outras áreas. Apesar disto, muitos tópicos de pesquisa básica da CE ainda continuam sendo desenvolvidos. Algumas vantagens da CE sobre as demais técnicas de separação são marcantes, tais como: possibilidade de automação, rapidez na obtenção dos resultados e alto poder de resolução. A pequena quantidade de amostra que é necessária para uma análise é uma característica muito interessante no estudo de sistemas biológicos, sendo que normalmente são injetados no capilar, volumes de 5 a 50 nl de amostra. Por outro lado, esta reduzida quantidade de amostra utilizada, a pequena janela de detecção e as baixas concentrações dos analitos nas amostras biológicas, são fatores que desafiam os pesquisadores nesta área. Para contornar este problema diversos métodos de pré-concentração de amostra foram desenvolvidos. Neste trabalho, foi desenvolvido um método inédito de pré-concentração de amostras através de gradientes térmicos em CE. O princípio do método é concentrar o analito quando ele passa de uma zona de alta temperatura para uma zona de baixa temperatura. Um modelo teórico foi desenvolvido para auxiliar o planejamento experimental no que diz respeito à determinação das condições em que a corrida deve ser realizada (pH, tipo de tampão, temperatura) para aplicar a compressão térmica em um analito. Foi utilizado L-Lisina derivatizada com naftaleno 2,3-dicarboxialdeído (Lys/NDA) como analito modelo. Uma diferença de temperatura de 58 °C entre as duas zonas térmicas foi suficiente para comprimir em 2,5 vezes a banda da Lys/NDA em um tampão de baixo coeficiente térmico com o pH ajustado para 8,7. O método de compressão de banda por gradientes térmicos proposto neste trabalho é uma nova opção para aumentar a sensibilidade e a resolução em CE. Ao contrário dos métodos clássicos de pré-concentração, esse novo método pode ser aplicado em amostras tanto com alta ou baixa condutividade iônica, comprimir bandas de analitos aniônicos ou catiônicos e ser aplicado em corridas em solução livre ou não. Além disso, considerando que o controle de temperatura seja realizado de maneira automatizada, pode apresentar altas taxas de reprodutibilidade, além de ser de simples e de fácil aplicação, podendo ser empregado em análises de rotina. Diferentes LEDs (Light Emitting Diode) foram testado em detector por fluorescência induzida por LED. Além disso, um novo sistema de aquisição de dados e tratamento de sinal utilizando a placa de som de um PC (Personal Computer) e um amplificador Lock-in emulado por software foi montado e comparado com um sistema de aquisição de dados convencional. O equipamento de CE utilizado neste trabalho com esses componentes, apresentou uma elevada sensibilidade, na faixa de 0,5 à 1 fmol para os peptídeos e aminoácidos testados e foi superior ao sistema convencional em vários aspectos como: sensibilidade de detecção, faixa linear de detecção em concentração do analito, facilidade de operação e custo do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente produção de resíduos sólidos urbanos e a escassez de áreas para uma destinação final tecnicamente adequada, via implantação de aterros sanitários, faz com que tome importância a técnica de tratamento de resíduos sólidos orgânicos através das compostagem/vermicompostagem. Nesta pesquisa, foi realizada a avaliação destes processos, tendo sido observadas principalmente a influência da aeração e da umidade no desempenho destas técnicas de tratamento, em leiras de pequenos e grandes volumes. Nos experimentos, com leiras de pequenos volumes, realizados no IPH (Instituto de Pesquisas Hidráulicas) da UFRGS, utilizou-se resíduos sólidos de poda (resíduos verdes, com alta concentração de carbono) codispostos (misturados em peso) com resíduos vegetais da CEASA (Companhia Estadual de Abastecimento Sociedade Anônima) e lodos provenientes de estações de tratamento de esgotos sanitários. Nos experimentos, com leiras de grandes volumes, realizados na UTC – Unidade de Triagem e Compostagem de Porto Alegre, utilizou-se resíduos orgânicos domiciliares codispostos com os mesmos resíduos utilizados nos primeiros experimentos. Paralelamente aos experimentos de compostagem, avaliou-se os lixiviados produzidos nos sistemas. Na compostagem de grandes volumes, também foi observado o desempenho de banhados construídos de fluxo subsuperficial para o tratamento desses efluentes líquidos. com teores de resíduos verdes menores que 35 %, o que se justifica pela maior concentração de resíduos de característica facilmente biodegradável e de maior palatabilidade para os vermes. Em todos os experimentos de compostagem, verificou-se que o controle efetivo do processo pode ser realizado através da avaliação sistemática das temperatura e umidade das leiras. Evidenciou-se também que para regiões de clima similar ao de Porto Alegre, com elevadas precipitações principalmente no inverno, é necessário adotar dimensões adequadas ao sistema de compostagem “windrow” para áreas descobertas. Comprovou-se também a necessidade de manutenção da umidade na faixa entre 50% e 70 %, inclusive com reposição desta, mesmo na situação de inverno. A avaliação dos lixiviados da compostagem demonstrou que, com os substratos utilizados nos experimentos, as concentrações de DBO5, DQO e de outras variáveis são elevadas ao início do processo de decomposição, devido à solubilização dos compostos orgânicos e inorgânicos presentes na matéria orgânica. Os lixiviados da compostagem possuem baixas concentrações de condutividade, DBO5, NH4 +, entre outros, quando comparados aos lixiviados de aterros sanitários. tratamento destes efluentes. Os resultados obtidos nos banhados construídos para baixas cargas hidráulicas (1cm/d) e concentrações de DBO5 do afluente abaixo de 150 mg/L apontaram uma eficiência média de remoção de 52,02%. No que se refere a nitrogênio (todas as formas), fósforo, metais, potencial redox e sólidos totais, as eficiências foram variáveis, com melhores resultados para nitrogênio amoniacal e fósforo. A compostagem pode ser considerada uma alternativa viável de tratamento de resíduos orgânicos, utilizando-se o processo “windrow” com revolvimento mecânico, mesmo em pátios descobertos em climas subtropicais. Neste caso, sugere-se que os lixiviados gerados nos primeiros dias de compostagem (30 dias aproximandamente) sejam recirculados e o excedente tratado em ETE. Pode-se, também, utilizar o sistema de banhados construídos como complementação, principalmente para a remoção de nitrogênio e fósforo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we try to rationalize the existence of one of the most common affirmative action policies: educational quotas. We model a two period economy with asymmetric information and endogenous human capital formation. Individuals may be from two different groups in the population, where each group is defined by an observable and exogenous characteristic. The distribution of skills differ across groups. We introduce educational quotas into the model by letting the planner reduce the effort cost that a student from one of the groups has to endure in order to be accepted into a university. Affirmative action policies can be interpreted as a form of ``tagging" since group characteristics are used as proxies for productivity. We find that although educational quotas are usually efficient, they need not subsidize the education of the low skill group.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A toxicidade por alumínio é uma das principais limitações para produção de plantas em áreas cultiváveis, incluindo a cultura do milho. Existe elevada variabilidade genética para o caráter tolerância ao alumínio nesta espécie, porém, a seleção é trabalhosa devido à dificuldade de avaliação a campo. Os objetivos do presente trabalho foram caracterizar a tolerância à toxicidade ao alumínio em cinco linhagens de milho e identificar marcadores moleculares ligados aos genes que determinam essa tolerância. Foi realizado um experimento dialélico entre três linhagens tolerantes e duas sensíveis ao alumínio utilizando o método de recrescimento da raiz principal (DIF). Houve superioridade das populações híbridas em relação aos genitores e, pelo desdobramento dos efeitos de heterose, houve significância nos efeitos de heterose de variedade e heterose específica. As linhagens L06 e L09 obtiveram maior capacidade geral de combinação e o cruzamento L10xL08 foi a melhor combinação específica. Para fenotipagem, realizada em famílias F3 dos cruzamentos L09xL06 e L10xL08 foi utilizado DIF e o método coloração com hematoxilina (HEM). Para análise molecular foram utilizados marcadores SSR. Foram obtidos 37 marcadores polimórficos. A análise de regressão mostrou significância em marcadores localizados nos cromossomos 4, 5, 6, 8 e 10. Os QTLs identificados explicaram 41% e 37% da variação para as variáveis DIF e HEM, respectivamente. Foi encontrada associação entre os experimentos a campo e trabalhos realizados em solução mínima para os híbridos testemunha, entretanto não houve correlação nos dados gerados pelas famílias F3 dos cruzamentos estudados. Os resultados sugerem o envolvimento de diversos genes, tratando-se de uma característica de herança complexa determinada por efeitos genéticos aditivos e nãoaditivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aborda a hibridação da arte com as novas tecnologias da comunicação. Primeiramente foi retomada a relação do modernismo com o pós-modernismo, para melhor situar as condições que favorecem o entrelace entre heterogêneos e o convívio de diferentes na produção artistica. Estes dois movimentos mostram uma transição na qual e possível perceber características de ambos interagindo e dificultando um posicionamento compartimentalizado, colocando a hibridação dentro dos próprios movimentos, estilos e atividades em geral. Com este enfoque delineando todo o trabalho, as idéias de Pierre Lévy exemplificam e ratificam, especialmente na Área da comunicação, omo o pensamento esta vinculado com a produção social, sendo que o oposto também é verdadeiro, numa influência recíproca. As primeiras experiências com a imagem digital são revistas, possibilitando prever a participação da hibriação na construção artística com as novas tecnologias digitais. A hibridação ocorre tanto do ponto de vista da estruturação do conhecimento, analógico e digital, quanto da utilização de materiais de naturezas diferentes - tão peculiar na atividade artistica - constatando nesta característica um reflexo do pensamento contemporâneo. A análise das obras selecionadas para a IV e V edições do Salao Digital Anual de Nova Iorque - um pequeno recorte da ampla diversidade da produção artística - permite configurar a hibridação da arte que utiliza os recursos das tecnologias digitais mais recentes, e ao mesmo tempo confirmar a complexificação cultural da atualidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo representar através de um modelo dinâmico de equilíbrio geral, uma característica do mercado brasileiro de subsidiar o setor de infraestrutura através do sistema financeiro. Além disso, objetiva-se simular o efeito do aumento de impostos - destinando recursos tributários, tanto para um agente público quanto privado - para subsidiar o investimento em infraestrutura. Alternativamente, simula-se o efeito da redução do compulsório bancário, destinando esses recursos também à infraestrutura. As simulações apresentam resultados semelhantes, de tal modo que no curto prazo, há uma contração do produto e da infraestrutura, mas no longo prazo, há uma expansão do produto, infraestrutura e bem-estar. Os resultados podem apresentar comportamentos diferentes para o bem-estar dependendo do parâmetro de elasticidade da infraestrutura em relação à renda.