997 resultados para processamento mínimo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Consultoria Legislativa - Área VII - Sistema Financeiro, Direito Comercial, Econômico e Defesa do Consumidor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coleção de editais de concursos públicos reunidos pela Coordenação de Relacionamento Pesquisa e Informação do Centro de Documentação da Câmara dos Deputados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Demonstra que a calibragem do salário mínimo desde sua criação, em julho de 1940, resultou mais de arbitramento político que de circunstâncias econômicas. Objetiva confirmar que, apesar de ter causado injunções à política do salário mínimo em diversos momentos, o risco econômico nunca foi seu determinante. Detecta-se, porém, certo descolamento entre ciclos da economia e curvas do salário mínimo. A falta de sincronia entre solidez econômica e valorização do mínimo ou entre crise econômica e achatamento do piso pode evidenciar que há uma razão não meramente econômica a operar a calibragem do salário mínimo. Essa justificativa, sua natureza, sua conformação, é o principal objeto da investigação e pode dar pistas interessantes sobre a evolução da democracia brasileira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Demonstra que o impacto fiscal referente a um aumento do salário mínimo não é tão pesado quanto se pode imaginar, em função do "retorno" de parte dos recursos por meio da tributação, seja de forma direta (contribuições previdenciárias), seja de forma indireta, por meio, principalmente, da tributação sobre o consumo de produtos e serviços. Os efeitos da elevação do salário mínimo na ativação da economia, na redução da pobreza e na distribuição de renda também podem ser bastante positivos, enquanto os impactos no mercado de trabalho parecem não ser tão significativos. O trabalho faz uma resenha sobre tais aspectos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisa aspectos da Constituição Federal que determina que os benefícios pagos pelo RGPS devem ser reajustados de forma a preservar o valor real, na forma da lei. Ao regulamentar a matéria, a Lei nº 8.213, de 1991, art. 41-A, determina que as prestações previdenciárias sejam reajustadas anualmente com base na variação acumulada do INPC na mesma data do reajuste do salário mínimo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Monografia (especialização) – Curso de Parlamento e Direito, Câmara dos Deputados, Centro de Formação, Treinamento e Aperfeiçoamento (Cefor), 2015.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O aumento nos rejeitos industriais e a contínua produção de resíduos causam muitas preocupações no âmbito ambiental. Neste contexto, o descarte de pneus usados tem se tornado um grande problema por conta da pequena atenção que se dá à sua destinação final. Assim sendo, essa pesquisa propõe a produção de uma mistura polimérica com polipropileno (PP), a borracha de etileno-propileno-dieno (EPDM) e o pó de pneu (SRT). A Metodologia de Superfície de Resposta (MSR), coleção de técnicas estatísticas e matemáticas úteis para desenvolver, melhorar e optimizar processos, foi aplicada à investigação das misturas ternárias. Após o processamento adequado em extrusora de dupla rosca e a moldagem por injeção, as propriedades mecânicas de resistência à tração e resistência ao impacto foram determinadas e utilizadas como variáveis resposta. Ao mesmo tempo, a microscopia eletrônica de varredura (MEV) foi usada para a investigação da morfologia das diferentes misturas e melhor interpretação dos resultados. Com as ferramentas estatísticas específicas e um número mínimo de experimentos foi possível o desenvolvimento de modelos de superfícies de resposta e a otimização das concentrações dos diferentes componentes da mistura em função do desempenho mecânico e além disso com a modificação da granulometria conseguimos um aumento ainda mais significativo deste desempenho mecânico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Copolímeros casca-núcleo de poli(acrilato de butila) (núcleo) e poliestireno (casca) foram sintetizados por meio de polimerização em emulsão, conduzida em duas etapas. A adição de ácido itacônico como monômero funcional na polimerização do núcleo foi realizada para verificar seu efeito sobre suas propriedades mecânicas e de processamento. Os copolímeros foram caracterizados por espalhamento dinâmico de luz (DLS), microscopia eletrônica de transmissão (MET), cromatografia de exclusão por tamanho (SEC), espectrometria na região do infravermelho (FTIR) e calorimetria diferencial por varredura (DSC). A incorporação do monômero funcional foi confirmada por DSC e quantificada por titulação. A proporção de poli(acrilato de butila) e poliestireno influenciou diretamente o processamento e as propriedades mecânicas do polímero. Os copolímeros com teores de poliestireno acima de 50% foram processados por compressão e extrusão a temperatura ambiente, apresentando comportamento baroplástico. A presença do monômero funcional não alterou o processamento do polímero e melhorou significativamente sua resistência à tração, aumentando sua tenacidade

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho teve por objetivo quantificar, comparativamente, a área de preenchimento de dois materiais obturadores sólidos, cones de guta-percha (GP) e cones de Resilon (R), no terço apical de incisivos inferiores humanos, ex vivo, obturados pela técnica da onda contínua de condensação. Os espécimes foram submetidos a um protocolo, desde a cirurgia de acesso até o final do preparo químico-mecânico e divididos aleatoriamente em dois grupos, de 21 dentes cada, de acordo com o material utilizado. Não foi utilizado cimento endodôntico em nenhuma das amostras. Após a obturação, as amostras foram seccionadas transversalmente em dois níveis, a 3 e a 5mm do ápice, e subdivididas em grupos de acordo com a altura de corte e do material obturador, sendo estabelecido: GP3 (guta-percha com corte a 3mm), GP5 (guta-percha com corte a 5mm), R3 (Resilon com corte a 3mm) e R5 (Resilon com corte a 5mm). Posteriormente, as amostras foram submetidas a um processo de lixamento e polimento e examinadas em microscópio óptico por reflexão com aumento de 50x a 100x. Para a análise e processamento digital das imagens, foi utilizado o sistema de imagens Axio Vision 4.6 para Windows, sendo obtidas as medidas para cada área observada em micrômetros (μm); uma da área da cavidade, e outra da área de material obturador. Foi aferido o grau de circularidade de cada amostra, por uma fórmula matemática utilizada automaticamente pelo programa, onde 1 (um) é considerado o círculo perfeito e, quanto mais achatado o canal, mais tendente a 0 (zero) nesta escala. Obteve-se a área do canal, a circularidade de 0 a 1, a área preenchida pelo material obturador e, a porcentagem da área de preenchimento do material obturador em relação à área do canal. Foi realizado o cruzamento dos grupos dois a dois pelo teste t de Student, sendo verificada diferença estatisticamente significante entre os grupos GP3 e R3, tendo o grupo R3 apresentado maior porcentagem de área do canal radicular preenchida pelo material obturador em suas amostras (p<0,05). Na relação da circularidade com a quantidade de preenchimento, com o teste de Correlação de Pearson, não foi observada forte correlação entre a forma final do canal (relação de circularidade) e a quantidade de preenchimento do canal radicular pelos materiais obturadores testados. Conclui-se que houve grande variação de preenchimento mínimo e máximo em todos os grupos testados e o Resilon apresentou maior porcentagem de preenchimento de área do canal radicular em suas amostras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal desse trabalho foi utilizar métodos não destrutivos (END), como a microtomografia com Raio X e técnicas de obtenção e processamento de imagens, para obtenção da porosidade do concreto. Foram utilizados dois métodos. Em um método as imagens foram obtidas por meio de microtomografia por Raio X e no outro foi utilizado um escâner comercial para obtenção das imagens. Essas imagens foram processadas por meio de técnicas de processamento de pixel e morfologia matemática. Os resultados obtidos para a porosidade foram comparados com resultado obtido por meio do método proposto pela NBR 9778 (2005) (Absorção de água, índice de vazios e massa específica em argamassa e concreto endurecido). As imagens microtomográficas das amostras de concreto foram obtidas num sistema Skyscan 1172 com 256 tons de cinza, ajustadas em contraste, binarizadas e filtradas. No outro método foi utilizado um Escâner Comercial com resolução de 2400 dpi para adquirir as imagens, sendo também utilizadas técnicas de processamento de pixel e morfologia matemática para processá-las. Os resultados dos valores da porosidade mostraram compatibilidade entre os dois métodos apresentados e o método proposto pela NBR 9778 (2005). Observou-se que os resultados obtidos por microtomografia foram mais confiáveis, mas o método utilizando o escâner comercial se apresentou como um método aceitável por seus resultados e principalmente por seu baixo custo e facilidade de operação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos numéricos convencionais, baseados em malhas, têm sido amplamente aplicados na resolução de problemas da Dinâmica dos Fluidos Computacional. Entretanto, em problemas de escoamento de fluidos que envolvem superfícies livres, grandes explosões, grandes deformações, descontinuidades, ondas de choque etc., estes métodos podem apresentar algumas dificuldades práticas quando da resolução destes problemas. Como uma alternativa viável, existem os métodos de partículas livre de malhas. Neste trabalho é feita uma introdução ao método Lagrangeano de partículas, livre de malhas, Smoothed Particle Hydrodynamics (SPH) voltado para a simulação numérica de escoamentos de fluidos newtonianos compressíveis e quase-incompressíveis. Dois códigos numéricos foram desenvolvidos, uma versão serial e outra em paralelo, empregando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA), que possibilita o processamento em paralelo empregando os núcleos das Graphics Processing Units (GPUs) das placas de vídeo da NVIDIA Corporation. Os resultados numéricos foram validados e a eficiência computacional avaliada considerandose a resolução dos problemas unidimensionais Shock Tube e Blast Wave e bidimensional da Cavidade (Shear Driven Cavity Problem).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação é um estudo de caso com caráter exploratório (Rampazo, 2005; Babie, 2008). Na parte teórica, propomos a categorização triádica das imagens no ciberespaço, que é uma das contribuições deste trabalho para a área de estudos sobre leitura no ciberespaço. A investigação apresenta como objetivos acompanhar e analisar o processo leitor de um professor de espanhol como língua estrangeira no ciberespaço, tendo como foco a multimodalidade. Tais objetivos têm a função de nortear a resolução dos problemas de pesquisa, a saber: (a) como um professor de ELE lê no ciberespaço tendo em vista as imagens como aspectos da multimodalidade; (b) como esse professor transpõe sua própria atividade leitora e os materiais da internet para uma atividade de aula. Os instrumentos de coleta utilizados foram: entrevista, questionário, protocolos e gravações do GTK. O cruzamento entre 12 critérios de análise permitiu, dentre outros detalhes, observar que nosso sujeito lê textos verbais no ciberespaço movimentando o cursor do mouse como se fosse seus dedos sobre uma folha de papel a percorrer linha a linha da esquerda para a direita. Também percebemos que a experiência de leitura no ciberespaço (conhecimentos prévios) pode ser o fator que contribui para que o sujeito despreze as imagens de categorias mescladas (B e C) e prefira utilizar as imagens de categoria B, no caso, por exemplo, de acessar uma reportagem a partir de sua manchete em jornal eletrônico. Quanto à transposição de materiais para as aulas, percebemos que a formação acadêmica de nosso sujeito ao não direcionar discussões teóricas e metodológicas sobre as TICs e seu uso em sala de aula e sua realidade de trabalho podem ter contribuído para o modo como o sujeito transpõe os materiais da internet para as aulas. As adaptações e afastamentos desses materiais não são trabalhados em sala de aula. As imagens e links são retirados e o texto utilizado na atividade docente é uma mistura de vários materiais provenientes de diferentes países, mas sem a fonte especificada na aula. O papel que a formação tem para a vida profissional e para a práxis do professor não pode ser descartado. Defendemos que uma formação que seja direcionada às TICs deve fazer parte do currículo acadêmico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento de vídeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O aço inoxidável é amplamente utilizado em sistemas para processamento e obtenção de derivados de folhelhos pirobetuminosos. Em função dos problemas de corrosão, originários da composição química dos folhelhos e do processamento em si, são gastos anualmente valores expressivos em manutenção e paradas programadas para reparos nestes sistemas. O presente trabalho busca estudar o processo de corrosão do aço inoxidável AISI 304L em meio simulado de retortagem de folhelhos, em condições de alta temperatura e em presença de elevados teores de enxofre, orgânico e inorgânico, empregando técnicas microscópicas e eletroquímicas. Os resultados mostraram que a temperatura influencia diretamente no processo de corrosão do aço, causando modificação na camada externa de óxidos. Este processo é agravado com a presença de sulfetos no meio, havendo formação, principalmente, de sulfetos de ferro sobre a superfície do aço inoxidável AISI 304L e consequente aumento do processo de corrosão. Foi observado que o enxofre de origem orgânica promove maior destruição da camada de óxido protetor do aço e aumento na formação do filme de sulfeto aderido à superfície deste material. Verificou-se ainda que o processo corrosivo é predominantemente químico, sendo o filme formado considerado protetor, do ponto de vista eletroquímico, no meio eletrolítico estudado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).