897 resultados para Impressoras (Processamento de dados)
Resumo:
Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.
Resumo:
A mineração de dados é o núcleo do processo de descoberta de conhecimento em base de dados. Durante a mineração podem ser aplicadas diversas técnicas para a extração de conhecimento. Cada técnica disponível visa à realização de um objetivo e é executada de uma forma em particular. O foco desta dissertação é uma destas técnicas conhecida como detecção de desvios. A detecção de desvios é baseada no reconhecimento do padrão existente nos dados avaliados e a capacidade de identificar valores que não suportem o padrão identificado. Este trabalho propõe uma sistemática de avaliação dos dados, com o objetivo de identificar os registros que destoam do padrão encontrado. Para este estudo são aplicadas algumas técnicas de avaliação estatística. Inicialmente é apresentada uma revisão bibliográfica sobre descoberta de conhecimento em base de dados (DCBD) e mineração de dados (MD). Na seqüência, são apresentados os principais conceitos que auxiliam na definição do que é um desvio, quais as técnicas utilizadas para a detecção e a forma de avaliação do mesmo. Dando continuidade ao trabalho, a sistemática CRISP_DM é descrita por ser aplicada aos estudos de casos realizados. A seguir, são descritos os estudos de casos realizados que utilizaram as bases da Secretaria da Saúde do Rio Grande do Sul (SES). Finalmente, são apresentados as conclusões do estudo e possíveis trabalhos futuros.
Resumo:
A seqüência evaporítica Aptiana da Bacia de Santos constitui-se num dos maiores depósitos salíferos antigos conhecidos no mundo, tanto em área como em espessura. Esta última chega a atingir 2.500 m em alguns locais com baixa deformação. Devido à intensa halocinese ocorrida a partir do Albiano, sua estratificação deposicional ficou preservada em poucos locais. O Platô de São Paulo, feição fisiográfica que se estende até as águas profundas da Bacia de Santos, teve papel importante na preservação do acamadamento original. Dois poços e traços de uma seção sísmica, localizados nesta área, foram utilizados para o estudo cicloestratigráfico do pacote evaporítico. A correlação dos dois poços, a partir de seus perfis geofísicos, permitiu a identificação de um ciclo evaporítico principal com grande continuidade lateral e de espessura variável. Este ciclo deposicional foi classificado como do tipo brining upward/downward, e caracteriza-se pela precipitação rítmica de anidrita, halita, sais complexos, halita e, novamente, anidrita, no final de um ciclo e início do seguinte. Esta ordem de deposição foi interpretada como função da variação da espessura da lâmina de água e da concentração da salmoura. A análise cicloestratigráfica dos perfis geofísicos dos dois poços (raios gama, velocidade e densidade) e dos dois traços sísmicos resultou na correlação do principal ciclo identificado com o ciclo orbital de Milankovich de precessão longa, com 22 ka. Um outro ciclo secundário, com maior espessura, foi interpretado como resultado de variações climáticas em função do ciclo de obliqüidade, com um período de 39 ka. As taxas de deposição de cada ciclo são bastante variáveis em função da quantidade de cada tipo de evaporito. Através das análises cicloestratigráficas e do estudo das proporções em que cada sal ocorre, chegou-se a uma taxa de deposição da halita entre 10 e 11,5 m/ka, e de 0,61 a 0,64 m/ka para a anidrita. Esta diferença entre as taxas de deposição da halita e da anidrita explica a grande variação de espessura do ciclo principal, especialmente entre o depocentro e a borda da bacia. A menor concentração da salmoura nas proximidades da borda justifica uma menor espessura do ciclo e uma proporção bem maior de anidrita, quando se compara com uma deposição próxima ao depocentro. A cicloestratigrafia aplicada aos traços sísmicos apresentou resultados similares aos encontrados nos dois poços. A grande variação das propriedades físicas entre os diferentes tipos de evaporitos, especialmente entre a anidrita e os sais complexos, permite a intercalação de refletores com grande amplitude e continuidade. Foram contabilizados 22 ciclos nos dois traços analisados, os quais somados com o nível superior não analisado, mais rico em anidrita, totalizam 573 ka para a idade da seqüência evaporítica. Este resultado, mais os encontrados nos dois poços, permite uma previsão de tempo para a deposição de toda a seqüência entre 400 e 600 ka. Como um modelo mais provável para a deposição de toda a seqüência evaporítica, defende-se, neste trabalho, a hipótese de uma bacia profunda com lâmina de água também profunda. Os ciclos teriam se depositados a partir de mudanças de concentração da salmoura originadas pela variação de uma lâmina de água de cerca de 1000 m, na deposição da anidrita, para menos de 200 na deposição dos sais complexos, na parte mais profunda da bacia. Corroboram para este modelo, a grande continuidade, do depocentro até as bordas, das camadas de cada ciclo, a declividade, mesmo que bastante baixa, da bacia e a impossibilidade de valores de taxas de subsidência similares aos de deposição do ciclo evaporítico.
Resumo:
Uma das questões mais debatidas na atualidade diz respeito à problemática ambiental. A impossibilidade da verificação de muitos dos possíveis efeitos da atividade agrícola no ambiente rural tem levado pesquisadores das mais diversas áreas a buscar alternativas viáveis para uma utilização sustentável do ambiente. O presente trabalho apresenta o desenvolvimento de uma metodologia diferenciada para lidar com a questão. Utilizou-se, para isto, um estudo de caso em uma unidade de planejamento, a saber, uma bacia hidrográfica, ou microbacia hidrográfica (MBH) como será explanado no decorrer do texto, localizada no município de Maximiliano de Almeida, no Estado do Rio Grande do Sul, com uma área de cerca de 11,96 km2. Para esta bacia foram aplicadas as técnicas vinculadas às Metodologias Multicritério em Apoio à Decisão (MCDA – Multicriteria Decision Aided) visando à formulação de critérios quando do uso do geoprocessamento. Assim, a partir de uma revisão bibliográfica geral sobre os aspectos relacionados ao assunto em pauta, foram realizados os procedimentos metodológicos pertinentes, vinculados ao uso de MCDA e geoprocessamento, os quais resultaram em mapas específicos. A análise dos mapas resultantes corroborou as hipóteses apresentadas. Os resultados obtidos servem, portanto, como indicativos para a utilização desta metodologia nas demais bacias hidrográficas trabalhadas pela Associação Riograndense de Empreendimentos de Assistência Técnica e Extensão Rural – EMATER/RS – tida como parceira neste trabalho.
Resumo:
No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.
Resumo:
Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.
Resumo:
A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.
Resumo:
A rápida expansão da cultura da cana-de-açúcar, essencialmente ocorrida a partir de 2004, tanto no Estado de São Paulo, um dos mais tradicionais e mais bem localizado do país, em termos de logística e proximidade de grandes centros consumidores, bem como em outros não tão privilegiados, levantou diversas discussões sobre a sustentabilidade do setor e eventual avanço em terras que, direta e indiretamente, prejudicariam a produção de alimentos no país. Esse evento desencadeou uma rápida reorganização do setor, através de sua principal entidade representativa, a UNICA, e, fundamentalmente, iniciou um processo irreversível de profissionalização e consolidação de grandes grupos com o intuito de crescimento e fortalecimento para fazer frente aos desafios da “comoditização” integral de seus produtos: o açúcar e o etanol. Nesse âmbito, após implementações de projetos como o “Protocolo Etanol Verde” e o “Zoneamento Agroambiental para o Setor Sucroalcooleiro do Estado de São Paulo”, e posteriormente o “Zoneamento Agro-Ecológico da Cana-de-Açúcar”, no Brasil, e divulgação da “RFS2 – Renewable Fuel Standard 2”, nos Estados Unidos, os quais podem ser considerados pontos fundamentais para a indicação de que o setor deveria evoluir, seja via sócio-ambiental, ou através da oportunidade de crescimento do mercado externo (EUA), sem esquecer a crescente frota de veículos flex-fuel no Brasil, e tenta evoluir a passos largos, evidentemente que com maior enfoque e investimento tecnológico nos Estados Unidos, no sentido de obter maior produtividade industrial, com a mesma quantidade de área de cana plantada, o que atenderia aos dois apelos: o de sustentabilidade e o de abertura de mercado. O etanol de segunda geração é o assunto central, e de maior expectativa atualmente, para a esperada evolução de um dos setores de maior crescimento e participação na economia brasileira. As pesquisas de laboratório demonstram viabilidade produtiva do etanol de segunda geração, através da hidrólise do material celulósico, mas os grandes problemas estão relacionados à ausência de plantas com escala de produção comercial, elevado tempo de processamento (hidrólise enzimática) e deterioração de equipamentos envolvidos no processo (hidrólise ácida), além da necessidade de melhores estudos, para entendimento da substituição do bagaço pela palha da cana-de-açúcar, no processo de geração de energia elétrica nas unidades industriais. Este trabalho demonstrou, considerando suas limitações e parâmetros, que a viabilidade econômica para o etanol de segunda geração está um pouco distante de ser atingida e depende do preço futuro do etanol. O rendimento adicional de 85% (oitenta e cinco por cento) de litros de etanol, por tonelada de cana processada, e o preço de R$ 800 (oitocentos reais) o metro cúbico, são dados de entrada em tese factíveis de serem obtidos para geração de lucro líquido, mas não para o VPL. As incógnitas são a velocidade do desenvolvimento da planta de grande escala de produção e comportamento de preços diante das perspectivas analisadas. Diante dos resultados obtidos e do exposto, há a clara possibilidade de autoafirmação do setor que, após décadas de insucessos, como o do Proálcool, e críticas às suas políticas de sustentabilidade (sócio-ambiental), vislumbra um cenário promissor para a perpetuação de sua hegemonia e vanguarda na produção de biocombustível (etanol), alimento (açúcar) e energia elétrica.
Resumo:
Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.
Resumo:
Historicamente, devido à incompreensibilidade dos fenômenos físicos envolvidos, diversas técnicas de análise experimental de escoamentos foram desenvolvidas. Inicialmente, estas técnicas consistiam em uma simples visualização do escoamento em questão. Visava-se com isto produzir a intuição física a respeito do sistema físico para que futuras teorias pudessem ser formuladas. No entanto, nos anos posteriores, tornou-se necessária a criação de técnicas quantitativas. Neste segmento, a evolução tecnológica da eletrônica propiciou que técnicas intrusivas e não intrusivas fossem criadas. Tal processo culminou com o surgimento da microeletrônica, quando sensores eletrônicos de imagem puderam ser fabricados. Assim, técnicas não intrusivas de velocimetria através de processamento digital de imagens tornaram-se referência, possibilitando a medição de campos de velocidade do escoamento em análise. Tais técnicas são atualmente utilizadas não apenas no meio acadêmico, na investigação da turbulência, como na indústria, em projetos de engenharia que envolvam alta tecnologia. Neste trabalho, apresenta-se uma metodologia para a concepção de um sistema de velocimetria de 2 dimensões por processamento digital de imagens. Para tanto, o sistema de velocimetria foi dividido em duas partes, sendo os equipamentos bem como os conceitos físicos envolvidos em cada uma analisados e descritos Por fim, projetou-se e implementou-se um sistema de velocimetria de 2 dimensões através de processamento digital de imagens, modo PIV. A sua validação foi efetuada sobre um escoamento altamente turbulento interno a um duto circular, cuja solução é conhecida e exaustivamente estudada no decorrer dos anos. O resultado obtido se apresentou totalmente satisfatório e demonstrou a grande importância atual de tal técnica de medição.
Resumo:
Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.
Resumo:
Esta dissertação de mestrado tem o objetivo de estudar o efeito suspensivo do recurso de apelação e seus reflexos no sistema jurídico brasileiro. Com efeito, busca-se analisar as possíveis consequências da supressão do próprio efeito suspensivo sobre o tempo de duração dos processos e quanto a possível insegurança jurídica causada pela ausência da suspensão dos julgados de primeira instância. Sustenta-se neste trabalho que a supressão do efeito suspensivo pode ser uma proposta para aumentar a celeridade na tramitação dos processos no Brasil, sem causar problemas de segurança jurídica. Em primeiro lugar, descreve-se o problema de investigação e suas proposições. O primeiro capítulo apresenta a judicialização das relações sociais e, por conseguinte, a multiplicação do número de ações distribuídas e a crescente exigência pela efetividade da prestação jurisdicional. Neste mesmo capítulo o trabalho se ocupa em apreciar dos dados obtidos junto ao Tribunal de Justiça do Rio de Janeiro e com a análise qualitativa de casos típicos que demonstram o uso do efeito suspensivo tão somente para procrastinar o tempo de duração do processo bem como para barganhar um possível acordo vantajoso para o devedor. Em seguida, apreciamos os Princípios constitucionais da Segurança Jurídica e da Efetividade e Celeridade da Prestação Jurisdicional indicando o marco teórico de cada princípio. O segundo capítulo descreve conceito de sentença e seus efeitos, levando-se em consideração as últimas reformas processuais. Após, estuda-se a suposta estabilidade do sistema jurídico com a aplicação do efeito suspensivo, abordando o duplo grau de jurisdição como garantia constitucional. Posteriormente, indicamos a utilização estratégica do efeito suspensivo pelos atores (réus) do processo. O terceiro capítulo destina-se a apontar a legislação estrangeira e seus respectivos fundamentos jurídicos que influenciaram o nosso ordenamento jurídico, bem como a colaboração do autor em sugerir uma nova proposta de lei. Aproveitamos a oportunidade para trazer á baila as possíveis alterações oriundas do projeto do novo Código de Processo Civil e suas aspirações para dirimir os obstáculos que causam o longo tempo de duração dos processos. Por fim, apresentamos as considerações finais sobre a hipótese de supressão do efeito suspensivo como meio de alcançar a redução do tempo de duração do processo mantendo-se as garantias constitucionais da ampla defesa e do devido processo legal. Com efeito, demonstra-se que não há qualquer violação ao Princípio da Segurança Jurídica.
Resumo:
A manutenção de um sistema bancário hígido e com níveis de concorrência que estimulem a oferta de produtos financeiros que atendam à sociedade é um objetivo desejável, porém difícil de ser atingido. A dificuldade resine no trade-off, ainda não consensual, entre questões ligadas à estabilidade sistêmica e questões concorrenciais. Claramente, os sistemas bancários são indispensáveis no processamento de fluxo de capitais e na administração da intermediação entre poupadores e tomadores de crédito (Freixas e Roche, 2007). Essa atividade tem a característica marcante de risco de solvência (Diammond e Dybvig, 1983), mas, ainda assim, não há conformidade de motivo e forma de regulá-la (Dewatripont e Tirole, 1994). Sobre estas questões desenvolvemos uma análise histórico-institucional com o objetivo de contextualizar o estado atual no Brasil. Vale notar que, no setor bancário, também não há consenso sobre as formas de mensurar variáveis importantes para a literatura de Organização Industrial, como Poder de Mercado e Nível de Concorrência. Para contribuir com a discussão metodológica quanto às bases de dados e aos modelos de competição, foram realizados testes com os modelos Bresnahan e Lau (1982), Panzar e Rosse (1987) e Boone (2008), além das medidas usuais de concentração Cn e HHI, avaliando o setor bancário pelas unidades bancárias (CNPJ) e pelos Conglomerados Financeiros. Os testes apontam diferença estatística no uso destas bases a partir de 2004. Outra lacuna existente na literatura é a ausência de modelos para a simulação das variações da oferta de crédito provenientes de variações na estrutura ou modo de competição. Este trabalho também traz contribuições no entendimento das relações de Poder de Mercado e Nível de Competição no Mercado de Empréstimos Bancário brasileiro. Para tanto, são realizados testes, sobre uma estrutura de função de produção, onde os resultados confirmam as hipóteses clássicas quanto ao uso de poder de mercado de forma unilateral e à eficiência de escala, no nível do conglomerado bancário.