898 resultados para Processamento de dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação dedeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador dedeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador dedeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: O sistema colinérgico muscarínico apresenta uma função essencialmente modulatória, agindo, principalmente, sobre neurônios inibitórios e excitatórios. As aferências colinérgicas que atingem o sistema límbico, principalmente na formação hipocampal e na amígdala, evidenciam a participação desse sistema nos mecanismos de aprendizagem e memória. Agentes farmacológicos convencionais não são seletivos entre os diferentes subtipos de receptores colinérgicos muscarínicos (M1 – M5). As toxinas muscarínicas extraídas da peçonha da serpente mamba verde africana, têm-se mostrado ferramentas úteis na investigação do papel específico de cada tipo de receptor na memória. Os mecanismos modulatórios do sistema colinérgico muscarínico nos processos de aquisição e consolidação já foram extensivamente estudados, porém ainda são restritos dados referentes à participação desse sistema no processo de evocação. Objetivos: estudar a participação dos receptores colinérgicos muscarínicos na evocação da memória através da utilização pré-teste de fármacos pouco seletivos, como a escopolamina, pirenzepina (antagonistas) e oxotremorina (agonista); comparando com fármacos seletivos, como as toxinas muscarínicas MT3 (antagonista seletivo para o receptor M4) e MT2 (agonista seletivo para receptor M1 com atividade menos seletiva de antagonista M4) nas tarefas comportamentais de Esquiva Inibitória e Habituação ao Campo Aberto. Material e Métodos: ratos Wistar machos foram canulados bilateralmente no hipocampo dorsal. Após a recuperação da cirurgia, foram treinados na tarefa de Esquiva Inibitória (EI), com choque de 0,5 mA (3 s). Após 24 horas, receberam uma infusão intra-hipocamapal de escopolamina (0,5, 2,0 e 8,0 μg por lado), de oxotremorina (2,5 e 5 ng por lado), de pirenzepina (0,5 μg por lado), de MT3 (0,5, 1,0 e 2,0 μg por lado), de MT2 (0,75, 1,0 e 6,0 μg por lado) ou de TFS (grupo controle de todos os fármacos). Dez minutos após a infusão, os animais foram testados na EI. A latência de descida da plataforma no teste é o índice de memória da tarefa. Um procedimento semelhante foi aplicado no experimento com a tarefa comportamental de habituação ao campo aberto (menos aversiva que a esquiva inibitória), porém apenas foi utilizado a escopolamina e a MT3 (ambas 2,0 μg por lado); essa tarefa sérvio como um “controle motor” para a tarefa de esquiva inibitória Resultados: Os antagonistas colinérgicos muscarínicos escopolamina, pirenzepina e MT3 (doses, respectivamente, de 2,0 μg por lado, 0,5 μg por lado e 2,0 μg por lado), juntamente com a MT2 (agonista M1-seletivo, dose de 0,75 μg por lado) apresentaram um efeito facilitatório sobre a evocação da tarefa de Esquiva Inibitória. Além disso, o agonista pouco seletivo oxotremorina teve um efeito amnésico parcial nessa tarefa. A escopolamina e MT3 não tiveram qualquer efeito na evocação da tarefa de habituação ao campo aberto. Discussão: nossos resultados, obtidos com antagonistas, sugerem uma participação inibitória do sistema colinérgico muscarínico sobre o processo de evocação da memória aversiva da esquiva inibitória, porém, analisando a seletividade da MT3, podemos inferir uma atividade inibitória exclusiva do receptor M4. Esse resultado, entretanto, é contrário ao encontrado com a administração desses mesmos antagonistas no período pós-treino, demonstrando um papel oposto desse sistema entre os processos de consolidação e evocação. Além disso, o receptor M1 excitatório modula positivamente a evocação. A ausência de efeito dos fármacos na habituação ao campo aberto indica que o efeito na esquiva inibitória é cognitivo, e não motor ou exploratório.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese se dedica ao estudo de modelos de fixação de preços e suas implicações macroeconômicas. Nos primeiros dois capítulos analiso modelos em que as decisões das firmas sobre seus preços praticados levam em conta custos de menu e de informação. No Capítulo 1 eu estimo tais modelos empregando estatísticas de variações de preços dos Estados Unidos, e concluo que: os custos de informação são significativamente maiores que os custos de menu; os dados claramente favorecem o modelo em que informações sobre condições agregadas são custosas enquanto que as idiossincráticas têm custo zero. No Capítulo 2 investigo as consequências de choques monetários e anúncios de desinflação usando os modelos previamente estimados. Mostro que o grau de não-neutralidade monetária é maior no modelo em que parte da informação é grátis. O Capítulo 3 é um artigo em conjunto com Carlos Carvalho (PUC-Rio) e Antonella Tutino (Federal Reserve Bank of Dallas). No artigo examinamos um modelo de fixação de preços em que firmas estão sujeitas a uma restrição de fluxo de informação do tipo Shannon. Calibramos o modelo e estudamos funções impulso-resposta a choques idiossincráticos e agregados. Mostramos que as firmas vão preferir processar informações agregadas e idiossincráticas conjuntamente ao invés de investigá-las separadamente. Este tipo de processamento gera ajustes de preços mais frequentes, diminuindo a persistência de efeitos reais causados por choques monetários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A desoneração da folha é constituída pela eliminação da contribuição previdenciária patronal incidente sobre a folha de pagamento dos funcionários e pela adoção de uma nova contribuição previdenciária sobre a receita bruta das empresas. Um dos objetivos desta mudança, listados pelo Governo Federal do Brasil no programa Brasil Maior, é reduzir os custos de produção dos setores beneficiados através da diminuição da carga tributária, contribuindo, assim, para a geração de empregos e formalização de mão de obra. O objetivo deste trabalho, portanto, é estimar o impacto desta medida sobre a geração de empregos formais e também sobre o salário médio dos trabalhadores nos primeiros setores beneficiados, que foram, principalmente, Tecnologia da Informação (e Comunicação), Couro e Calçados, Vestuário e Têxtil, Hotéis e Call Center. Para isto, aplicou-se a metodologia econométrica difference-in-differences nos dados da Relação Anual de Informações Sociais (RAIS), disponibilizados pelo Ministério do Trabalho. Os resultados sugerem principalmente que a desoneração da folha de pagamentos parece ter gerado empregos apenas para o setor Tecnologia da Informação (e Comunicação), assim como aumento do salário médio dos empregados deste setor. Outro resultado interessante é que para o setor de Call Center o impacto em termos de emprego não foi significativo, mas a lei parece ter contribuído para um aumento do salário no setor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Biofilmes bacterianos na indústria de alimentos freqüentemente são prejudiciais, uma vez que podem abrigar patógenos e deteriorantes que contaminam os produtos. Este trabalho se propôs a avaliar e correlacionar o papel dos fatores de adesão e da hidrofobicidade na formação de biofilmes em diversos materiais. Leite in natura foi aliquotado em tubos contendo corpos de prova constituídos de vidro, polipropileno, aço inoxidável e pano de algodão e incubados em 10 °C e 25 °C. Após 2 h, 5 h e 8 h de contato, as células não aderidas foram removidas da superfície dos materiais, e as aderidas contadas em PCA. Foram isolados e identificados microrganismos dos biofilmes, sendo verificada a produção de cápsula (coloração com vermelho congo), fímbria (hemaglutinação em placa), hemolisinas (ágar sangue) e proteases (ágar leite). As hidrofobicidades celular e dos materiais foram determinadas pelos testes de agregação com sulfato de amônio e do ângulo do raio da gota séssil, respectivamente. Verificou-se a adesão de consórcios formados por E. coli, S. aureus e B. cereus. Os 103 isolados obtidos pertencem, principalmente, a espécies da família Enterobacteriaceae (46) e do gênero Staphylococcus (45). Na produção de fatores de virulência, 50,4% dos isolados produziram cápsula, 48,5% produziram fímbria, 55,3% hemolisina e 20,3% proteases. Dos microrganismos Gram-positivos e Gram-negativos, 86,6% e 84,4% foram positivos para o teste de hidrofobicidade, respectivamente. O aço inoxidável foi o material mais hidrofóbico testado, seguido por polipropileno e vidro. A temperatura de 25 °C e o polipropileno foram os maiores favorecedores de adesão dos consórcios bacterianos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A qualidade SAE 1141 alia boas conformabilidade e usinabilidade em um mesmo aço – esta qualidade possui adição de teores de enxofre da ordem de 0,08 – 0,13% em peso. É largamente empregada no segmento de forjarias na confecção de componentes com relativa complexidade e exigência mecânica, tais como garfos e ponteiras para a indústria automotiva. Devido a esse fato, é imprescindível que a matéria-prima para a conformação destes componentes atenda às exigências impostas pelos esforços aplicados aos mesmos e, dado às solicitações que sofrem, apresente um desempenho satisfatório em sua forma final, principalmente no tocante à sanidade interna, visto que defeitos dessa natureza são extremamente deletérios à performance dos componentes conformados. Em função disso, o principal objetivo desta investigação é avaliar as causas potencialmente geradoras de defeitos denominados trincas internas centrais, as quais afetam fortemente a sanidade interna da matéria-prima, além de reduzir a sua incidência em barras de aço da qualidade SAE 1141. Para tanto, são apresentadas considerações sobre a avaliação destes defeitos, analisando-se as possíveis causas geradoras das trincas, as quais são caracterizadas sob o enfoque de bibliografia adequada. Através da realização de ensaios no lingotamento contínuo (LC) envolvendo a utilização do agitador eletromagnético final (FEMS), elaboração de curvas de ductilidade pelo emprego do simulador físico Gleeble para os materiais nas condições tarugo e barra laminada, experiências na laminação envolvendo análises de amostras após cada diferente grau de redução ou passe conferido ao material pelo processo e variação das taxas de resfriamento pós-processamento, busca-se reduzir as ocorrências destes defeitos, diminuindo conseqüentemente sucateamento e custos e melhorando o desempenho do material frente às expectativas dos componentes em serviço. A metodologia empregada para a detecção dos defeitos nas barras laminadas foi a submissão das mesmas ao ultra-som. Várias amostras tiveram os seus defeitos detectados através desse ensaio, os quais foram analisados e caracterizados previamente ao início da investigação das causas geradoras, balizando assim a tomada de decisão em relação aos experimentos a serem realizados. Os dados práticos foram obtidos na Gerdau Aços Especiais Piratini, onde a análise de defeitos internos gerados a partir do processo produtivo é um procedimento rotineiro. A interpretação dos resultados, bem como testes laboratoriais adicionais foram realizados na própria usina e no IAS – Instituto Argentino de Siderurgia. Em paralelo, realizou-se uma revisão na literatura aberta dos principais fundamentos e conceitos metalúrgicos referentes a trincas internas e causas de geração das mesmas, tais como, influência do FEMS na solidificação e na condição de segregação nos tarugos de LC, elementos de liga com caráter fragilizante e/ou deletério (por exemplo, hidrogênio, carbono, enxofre e manganês), influência das transformações de fase – velocidade de resfriamento pós-processamento e influência dos elementos de liga – na formação dos defeitos, entre outros. Os resultados obtidos permitiram concluir que a principal causa da geração das trincas internas do tipo centrais em barras laminadas está associada a uma combinação de variáveis. As transformações de fase, somadas a presença de altos teores de hidrogênio no aço – fato este de grande importância na geração dos defeitos detectado somente ao longo da realização do trabalho – fragilizam localmente o núcleo das barras, gerando trincas. Estas, por sua vez, têm a sua propagação facilitada através de cadeias ou redes de sulfeto de manganês, por vezes devido à alta incidência das mesmas nos aços da qualidade SAE 1141. Além disso, pode-se constatar que a geração dos defeitos é potencializada para barras de diâmetros superiores a 75,00 mm. Em barras de diâmetros menores, as falhas estão igualmente presentes e apresentam morfologia similar aos defeitos encontrados nas barras de maior diâmetro, porém, em escala não significativa, não sendo assim abordadas neste trabalho. Pode-se constatar ainda, que a redução da incidência dos defeitos do tipo trincas internas centrais em barras laminadas de diâmetros superiores a 75,00 mm – e conseqüente sucateamento – foi da ordem de mais de 95% desde o início do trabalho, reduzindo-se assim o sucateamento desta qualidade para níveis da ordem de, aproximadamente, 1,0%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise tectono-estratigráfica da Bacia do Camaquã, uma sequência vulcanosedimentar do Neoproterozóico ao Eoproterozóico com depósitos de Cu (Au, Ag), Zn e Pb, é aqui apresentada com a utilização de ferramentas de sensoriamento remoto, gravimetria e perfilagem de poço. Nas imagens LANDSAT TM demarcou-se as concentrações de lineamentos junto as principais estruturas regionais e delimitou-se quatro domínios estruturais de acordo com a orientação dos trends dos lineamentos estruturais. Os perfis de poços que abrangem as formações Guaritas e Bom Jardim evidenciam eventos tectônicos com deformação rúptil e dúctil-ruptil, estabelecendo-se diferentes fácies tectonoestratigráficas de seqüências deposicionais (ambiente deltáico) e sequência deformacionais. Nos poços observa-se a variação da densidade com a profundidade entre poços, indicando a presença de duas aloformações de compactação distintas. Com base nos dados gravimétricos locais e regionais pode-se delimitar anomalias gravimétricas do embasamento, pacotes sedimentares de espessuras distintas em subsuperfície, com espessamento para NE, como também valores diferenciados para as principais unidades sedimentares da região estudada, bem como uma compartimentação escalonada da bacia do Camaquã. Ferramentas computacionais complementam a análise gravimétrica e de perfilagem geofísica, possibilitando a integração das técnicas já relacionadas e a formatação de dois perfis esquemáticos EW e SW-NE da bacia. Estes perfis auxiliam na visualização dos limites estruturais e formato da bacia, trazendo importantes informações para o modelo geológico da Bacia do Camaquã.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em 2000, o governo federal aprovou uma lei que permitiu aos Estados fixarem pisos salariais acima do salário mínimo. Os Estados do Rio de Janeiro e Rio Grande do Sul adotaram tal lei em 2001. Utilizando dados de painel da Pesquisa Mensal de Emprego de 2000 e 2001, encontramos um baixo cumprimento da lei nestes Estados. Adicionalmente, obtivemos evidências de efeito nulo sobre o nível de emprego. Estes resultados indicam um alto descumprimento da legislação devido a uma baixa efetividade da lei, como sugerido pela teoria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo usa dados agregados brasileiros para estimar a demanda domiciliar por telefones fixos. Com relação à literatura prévia sobre o tema, podem ser ressaltados três avanços metodológicos: (i) o caráter não-linear da escolha individual é preservado no modelo agregado; (ii) a agregação é feita de modo a considerar o viés gerado pela heterogeneidade entre os indivíduos dentro das regiões; (iii) é usada uma matriz de covariância robusta à presença de dependência espacial [Driscoll & Kraay (1998)]. Percebe-se que a consideração do viés de agregação altera significativamente os resultados. Além disso, simulações construídas a partir das estimativas encontradas indicam que a redução da assinatura básica em 50% aumentaria em apenas 3,3% os domicílios brasileiros com telefone fixo. Este impacto modesto é provavelmente resultado do comportamento dos domicílios de baixa renda. Em grande parte destes domicílios, existe somente um tipo de telefone, móvel ou fixo. Nesse caso, mesmo com uma redução significativa da assinatura do telefone fixo, boa parte deles ainda deve optar pelo telefone móvel, na medida em que este último, além de garantir mobilidade, tende a comprometer uma parcela menor da renda mensal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.