894 resultados para Algoritmos de minimização


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Educação Infantil em Porto Alegre: Um estudo das Creches Comunitárias é uma pesquisa teórica e empírica que pretende construir um espaço de debate em torno da parceria público/privado na oferta da educação infantil, no município de Porto Alegre. Com isso, quer provocar a discussão da alternativa posta em prática, no Município, para o atendimento da primeira etapa da educação básica que envolve o movimento popular comunitário e o poder público municipal, responsável pela educação das crianças pequenas da cidade. Neste processo, através da parceria, além dos atores diretamente envolvidos, quais sejam movimento comunitário e Prefeitura Municipal, entram, em muitas delas, outros parceiros e as famílias das crianças que pagam por este serviço. O referencial teórico para esta investigação parte, originariamente, de autores que analisam as crises do capital e as estratégias de superação a elas propostas, enfocando, dentre outras, o neoliberalismo, a Terceira Via e o Terceiro Setor e sua funcionalidade ao capital. A minimização do Estado, presente em todas estas estratégias, e a precarização das políticas sociais, com destaque para a educação infantil, tema desta dissertação, trazem subjacente a necessidade de alternativas para a educação e o cuidado das crianças de zero a seis anos. As construções sociais próprias da política de participação institucional no Município e a necessidade do atendimento às crianças oriundas de famílias pobres da periferia da cidade encaminham soluções criativas, mas necessitam ser analisadas quanto à sua permanência como política pública para a educação infantil. Esta dissertação pretende refletir sobre a parceria instituída em 1993, em Porto Alegre, e vigente até hoje (2005), avaliando o convênio firmado entre o poder público e a sociedade civil, buscando abrir novas perspectivas para avançar sobre o que coletivamente foi construído no Município até então.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diretorio TesteAs recentes mudanças de estrutura no sistema elétrico (geração, transmissão, distribuição e comercialização de energia) têm motivado o uso da geração distribuída e, em particular, pequenos produtores independentes conectados ao sistemas de distribuição e subtransmissão. Sendo recente, ainda há muitas lacunas quanto ao entendimento do impacto desta nova topologia na estabilidade e outros índices de desempenho do sistema. O presente trabalho está focado na conexão dos produtores independentes aos sistemas de distribuição e subtransmissão e visa contribuir quanto ao estudo teórico-prático deste problema, com ênfase nos aspectos de modelagem dos componentes do sistema. Este estudo faz parte do projeto de pesquisa “Impacto de Produtores Independentes e Autoprodutores Conectados aos sistemas de distribuição e subtransmissão", desenvolvido pela UFRGS com financiamento da CEEE. Como as unidades de geração distribuída são conectadas às redes de distribuição e transmissão, a distância entre estes geradores e as cargas é menor comparativamente às usinas de grande porte. Existe ainda a questão dos produtores independentes serem de potências menores e, portanto, mais suscetíveis às variações de carga da rede em que estão ligados. Devido a estes e outros fatores, uma melhor análise dos modelos estáticos e dinâmicos dos diversos componentes do sistema de potência dentro desta nova topologia se faz necessária. Um dos aspectos considerados neste trabalho, foi o estudo da influência da resistência da linha na análise da geração distribuída nas linhas de distribuição. Esta foi uma das contribuições deste trabalho e foi realizada por meio de simulações considerando vários modelos de geradores e cargas. Outra contribuição foi a construção do sistema consistindo de um protótipo de um produtor independente conectado a rede de distribuição, composto de um gerador de 100kVA conectado à rede elétrica, contendo cargas resistivas e indutivas, podendo serem ligadas/desligadas, emulando condições de operação similares às reais. A construção do protótipo também envolveu um sistema para simulação, um sistema supervisório para operação e realização de ensaios, e os algoritmos necessários para tal. Este sistema permite a simulação dinâmica de modelos de sistemas elétricos de potência em diversos cenários e a verificação experimental do comportamento dos grupos geradores em diversas condições de operação, incluindo a análise de desempenho estático, ensaios de curto circuito e as variações de despacho ativo e reativo de potência. Obtendo com isso uma melhor identificação e quantificação do impacto dos produtores independentes e autoprodutores na análise de sistemas elétricos de potência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O módulo de resiliência (MR) é hoje um dos parâmetros-chave para o dimensionamento empírico-mecanístico de pavimentos flexíveis. Há, entretanto, algumas peculiaridades no ensaio de tração indireta com cargas cíclicas que ocasionam variações na sua determinação. A investigação de tais fatores é necessária para que a magnitude do seu efeito sobre o valor de MR seja quantificada. Para isto, esta pesquisa avaliou, através de uma análise paramétrica, os algoritmos apresentados pelo Protocolo P07 do LTPP, análogo ao método correntemente utilizado pelas instituições brasileiras de pesquisa em pavimentação, e pela pesquisa NCHRP 1-28/1-28A para determinação dos deslocamentos resilientes, bem como o efeito do pulso e freqüência de carregamento e níveis de tensão de tração (%RT) em duas misturas asfálticas: uma mistura com ligante asfáltico convencional e outra com ligante asfáltico modificado por adição de borracha. Foram necessárias adaptações no equipamento de compressão diametral cíclica utilizado na pesquisa, e também a montagem de um sistema de posicionamento de sensores que permitisse a gravação de deslocamentos horizontais e verticais viabilizando a determinação do coeficiente do Poisson. Realizaram-se ensaios de MR e resistência à tração (RT) às temperaturas de 10°, 25° e 35°C e, complementarmente, ensaio de fadiga (tensão controlada) a 25°C. Os resultados obtidos demonstram a alta sensibilidade do valor de MR aos algoritmos de cálculo dos deslocamentos resilientes; o algoritmo apresentado pela pesquisa 1-28/ 1-28A do NCHRP foi considerado adequado. Observou-se a dependência do MR ao pulso de carga, à freqüência de ensaio e também ao nível de tensão aplicado durante o ensaio. A magnitude desta dependência, entretanto, é função do tipo de mistura e da temperatura sob a qual o ensaio foi realizado. A determinação do coeficiente de Poisson pareceu ser bastante suscetível ao sistema de medição utilizado, tendo apresentando uma grande variabilidade. Nos ensaios de vida de fadiga sob tensão controlada pode-se evidenciar a redução dos valores de MR dentro da zona de condicionamento. Propõe-se ainda que a defasagem medida entre o pulso de carga e o pulso de deslocamento no ensaio de MR, possa ser usada como indicador do comportamento visco-elástico das misturas, uma vez que apresentou comportamento análogo ao do ângulo de fase.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho examina a lateralização cerebral de funções e sua implicação para a cognição humana ao nível da intersecção entre a neuropsicologia clinica e a psicologia cognitiva de base informacional. A primeira parte do trabalho e dedicada a descrição e análise critica da conformação contemporânea desta área de investigação neuropsicológica, com a ênfase posta na metateoria e teorias predominantes, a par do sistema conceitual utilizado nas atividades de pesquisa desenvolvidas na área. Inicialmente, a abordagem neuropsicológica do problema da lateralização cerebral examinada no que concerne às suas articulações com os métodos e técnicas que se mostraram mais importantes para a configuração atual desta área de investigação, sob um enfoque histórico. Em continuidade, a análise dirigida às questões mais fundamentais nas quais se tem desdobrado o problema da assimetria funcional inter-hemisférica, representadas pelas especializações funcionais dos hemisférios cerebrais, pela atividade conjunta dos hemisférios e pelas relações entre diferenças individuais na lateralização cerebral e desempenho cognitivo. Neste contexto são sublinhadas as dificuldades e inconsistências relacionadas à restritividade do enfoque prevalente, avaliado como expressão de uma concepção neuropsicológica excessivamente simplificadora do problema compreendido pelas relações entre o cérebro e a cognição humanos. O trabalho apresenta, em sua segunda parte, uma tentativa de desenvolvimento de um enfoque sistêmico, na direção da complexidade, para o problema da lateralização cerebral de funções. Trata-se de um desenvolvimento que parte de uma descentração da dimensão lateral do sistema nervoso e resulta em uma subsunção deste problema à uma perspectiva mais global concernente à organização cerebral de funções e aos fundamentos para a construção teórica na neuropsicologia. Segue-se um exame das implicações deste enfoque para a questão das relações entre variações inter-individuais na lateralização cerebral de funções e habilidades cognitivas que se direciona para uma minimização do significado que tem sido atribuído a lateralizarão para o funcionamento cerebral e a cognição humanos. O trabalho apresenta, finalmente, um estudo empírico referente às relações entre variações inter-individuais normais de lateralizarão cerebral ,preferência manipulatória e sua história familiar e desempenho cognitivo, onde são comparados os desempenhos de destros com história familiar de sinistralidade negativa e de canhotos com esta história positiva no Teste WAIS. Os resultados obtidos mostram uma inequívoca semelhança nos desempenhos dos dois grupos em todas as escalas do WAIS. Estes resultados são discutidos principalmente no que tange à existência ou não de correspondências diretas entre variações normais nas representações das funções ao longo da dimensão lateral do sistema nervoso, preferência manipulatória e habilidades cognitivas. A conclusão final conforma-se como um sumário integrativo dos principais aspectos das conclusões atingidas no curso do trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A urbanização descontrolada das cidades brasileiras tem provocado o agravamento das enchentes naturais e a ampliação de sua freqüência, além de criar novos pontos de alagamento localizados. Isto se deve à crescente impermeabilização do solo com aumento do volume pluvial escoado e redução de amortecimento. A concepção de um projeto de macrodrenagem em uma bacia urbana que considere o controle das inundações, como por exemplo, a implementação de reservatórios de amortecimento em áreas sujeitas a alagamentos, constitui-se em uma tarefa complexa e difícil devido ao grande número de alternativas possíveis, considerando todas as variáveis envolvidas, como capacidades hidráulicas existentes e necessárias das redes de drenagem, disponibilidade de áreas para construção de reservatórios, custos de desapropriação destas áreas, existência de sistemas mistos de coleta, uso de reservatórios abertos ou subterrâneos, dentre outras. Desta forma o projetista coloca-se diante de um dilema: qual o conjunto destas alternativas podem ser o mais eficiente? Este estudo promoveu a análise da aplicabilidade e eficiência de um modelo de otimização associado a modelos hidrológico-hidráulicos como instrumentos de suporte à decisão em problemas de drenagem urbana. A ferramenta desenvolvida compôs-se pelo modelo IPHS1 para a simulação hidrológica e hidráulica, pelo algoritmo de evolução SCE-UA para o processo de otimização através da minimização do custo de implantação das soluções e do módulo EXTRAN do modelo SWMM para a verificação hidráulica dos resultados obtidos e análises de riscos superiores. Os resultados mostraram-se bons e o sistema implementado adaptou-se bem às características das duas bacias analisadas: bacia do arroio do Moinho e bacia do arroio da Areia. O sistema forneceu os cenários de custos otimizados de implantação da solução com detenções distribuídas nas bacias e ampliações de redes, em um curto período de tempo e utilizando dados que seriam necessários para qualquer projeto de macrodrenagem deste tipo. Com os resultados compilados, foram obtidas funções de auxílio à tomada de decisão em planos e projetos de drenagem urbana através de curvas ajustadas aos pontos gerados nas bacias estudadas. Foi realizada a análise de sensibilidade e a avaliação das incertezas envolvidas com o modelo hidrológico utilizado com relação ao seu parâmetro principal, o Curve Number. Esta análise mostrou grandes variações nas vazões de saída das bacias e nos custos das obras com pequenas alterações nos valores de CN. Apresenta-se ainda uma análise econômica da aplicação dos valores obtidos de forma extrapolada para todo o município de Porto Alegre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tratamento de modificação de óxidos (e sulfetos) com cálcio tornou-se usual na produção de aços de elevada limpeza interna. O conhecimento da composição química de inclusões, dependendo da composição do aço líquido, é requisito fundamental para garantir a lingotabilidade desses aços e propriedades mecânicas adequadas dependendo da aplicação dos mesmos. O objetivo deste trabalho foi o estudo da composição química de inclusões ao longo do processo de refino secundário, com enfoque no tratamento com cálcio. Para tanto, foram comparados dados experimentais (planta industrial) com simulações via termodinâmica computacional (software FactSage). A metodologia utilizada consistiu em: a) obtenção de dados experimentais para determinar os dados de entrada das simulações; b) utilizar os bancos de dados e a rotina de minimização da Energia de Gibbs do software FactSage, para calcular o equilíbrio entre as fases aço líquido (modelo associado) e inclusões (escória - modelo quase-químico modificado) e; c) comparar os resultados obtidos na planta industrial com os simulados via FactSage. O acompanhamento do processo de elaboração do aço na Gerdau Aços Especiais Piratini (AEP) foi fundamental para identificar eventuais desvios de processo, bem como para interpretar eventuais discrepâncias entre os resultados Na simulação de todas as provas, verificou-se que é fundamental um baixo desvio-padrão na análise dos elementos, se o objetivo é simular um padrão de elaboração de aço. Como resultado deste trabalho, verificou-se ainda que entre 10 e 14 ppm é a faixa ideal de cálcio para a formação de inclusões líquidas com teor mínimo de CaS, para os níveis de oxigênio, enxofre e alumínio do SAE 8620 na etapa final do processo de elaboração desse aço na AEP. É importante destacar que faixas mais amplas de cálcio podem ser utilizadas, dependendo do tipo de processo na aciaria e do tipo de produto requerido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evapotranspiração (ET) abrange todos os processos que envolvem a mudança de fase líquida ou sólida para vapor de água. Globalmente, suas principais componentes são a evaporação nos oceanos, corpos d’água e solo e a transpiração pela cobertura vegetal. O conhecimento da ET da superfície terrestre para a atmosfera é muito importante para a resolução de inúmeras questões relacionadas aos recursos hídricos. Dentre essas questões, destacam-se planejamento de bacias hidrográficas e, em especial, o manejo da irrigação. Esse tipo de informação é igualmente relevante para estudos climáticos uma vez que, por meio da ET, ocorre redistribuição de umidade e calor da superfície para a atmosfera.As metodologias convencionais de estimativa da ET, em geral, apresentam muitas incertezas. Essas incertezas aumentam muito quando o interesse é o comportamento espacial da mesma. A única tecnologia que permite acessar esse tipo de informação, de forma eficiente e econômica, é o sensoriamento remoto. Por meio de dados derivados de imagens de satélite é possível calcular o balanço de energia de uma região e acessar as reais taxas de ET. A literatura internacional apresenta alguns modelos para estimar a ET por meio de sensoriamento remoto. A verificação dessas estimativas é feita por medidas dos termos do balanço de energia realizadas por sensores colocados em torres meteorológicas. Esse tipo de informação, no entanto, é de alto custo e de difícil aquisição. Após revisão de literatura, foram escolhidos os algoritmos SEBAL (Surface Energy Balance Algorithm for Land) e SSEBI (Simplified Surface Energy Balance Index). O primeiro foi adotado por ser um dos mais utilizados e o segundo pela sua simplicidade.Dessa maneira, a partir de 44 imagens de satélite, praticamente livres de cobertura de nuvens, do sensor AVHRR (Advanced Very High Resolution Radiometer), a bordo do satélite NOAA-14, e dados climatológicos de algumas estações, foram geradas séries de coberturas de ET real para o Estado do Rio Grande do Sul em nível diário, durante o ano de 1998. Para efeito de simplificação, na análise dos resultados foram escolhidas algumas áreas representativas das principais classes de cobertura do Estado: área cultivada, campo, área urbana, banhado, lagoa e floresta. Os resultados demonstraram que, para o SEBAL, asperdas médias anuais (mm ano-1) ocorrem, em ordem decrescente nas classes banhado (827), lagoa (732), floresta (686), área cultivada (458), campo (453) e área urbana (276). Para o S-SEBI, esta ordem é a seguinte: floresta (918), banhado (870), lagoa (669), área cultivada (425), campo (403) e área urbana (363). Ficou evidente que as classes com as menores influências antrópicas apresentaram as maiores taxas de ET. Outra observação feita é que, em média, as estimativas do S-SEBI superestimam a ET em relação ao SEBAL, na porção leste do Estado, e o oposto na porção oeste. Foi verificado, ainda, um eixo de decréscimo da ET na primeira metade do ano da porção noroeste para sudeste, e posterior crescimento na segunda metade do ano, em sentido oposto.As verificações foram feitas de forma indireta por meio de um balanço hídrico anual simplificado em algumas bacias hidrográficas do Estado, por meio de valores de ET real para a cultura do milho em algumas localidades do Estado e medidas de evaporação de tanque do tipo Classe A. Em geral, os resultados foram considerados coerentes, o que confere à metodologia utilizada um grande potencial de uso, uma vez que possibilita acessar a distribuição espacial da ET.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho enfoca os aspectos críticos da fiscalização sanitária das cargas de produtos farmacêuticos nas áreas sob a jurisdição da Gerência de Portos, Aeroportos e Fronteiras (GGPAF) da Agência Nacional de Vigilância Sanitária (ANVISA), durante os processos de desembaraço, na importação ou exportação. Para o alcance dos resultados pretendidos, procedeu-se à análise da legislação sanitária vigente, reuniram-se os dados comerciais de importações e exportações, seguindo-se uma avaliação dos documentos da ANVISA e dos relatos fornecidos pelas Coordenações de diversas Unidades de PAF, sobre inspeções físicas das cargas, bem como dos locais de armazenagem das mesmas. A partir destes dados foi elaborado um roteiro de inspeção, validado através de sua aplicação in loco em Terminais Alfandegados. Obteve-se um diagnóstico dos riscos sanitários aos quais estavam submetidos os produtos farmacêuticos, particularmente nas etapas de transporte e armazenamento temporários em áreas aduaneiras, nas quais a responsabilidade sobre o produto não está bem definida. Este documento permitiu comparar os Regulamentos sanitários disponíveis com as práticas dos técnicos envolvidos na fiscalização dessas áreas, constatando-se altas discrepâncias. Diante disso, concluiu-se pela necessidade de harmonização das ações, dos saberes e das informações originadas de cada Unidade Administrativa de PAF. No intuito de colaborar com a consecução desse propósito, esta dissertação apresentou propostas de padronização dos procedimentos de controle sanitário, voltadas a orientar melhores práticas que conduzam à minimização dos riscos associados à atividade em foco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A motivação principal deste trabalho foi analisar aspectos relevantes no processo de tomada de decisão em empresas de manufatura brasileiras sobre o sistema a ser adotado na função de gerenciamento da produção, basicamente seu planejamento, programação e controle. Os objetivos de maximização da eficiência de operação da fábrica, minimização dos custos de fabricação e maximização do nível de serviço aos clientes, visados pelas empresas, são normalmente conflitantes. No desenvolvimento deste projeto procurou-se, dentro do contexto atual do uso dos sistemas de administração da produção nos principais centros produtivos mundiais como os E.U.A. e o Japão, vislumbrar um sistema que pudesse harmonizar os objetivos propostos, de acordo com a realidade brasileira, de instabilidade econômica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As áreas de visualização e modelagem baseados em pontos têm sido pesquisadas ativamente na computação gráfica. Pontos com atributos (por exemplo, normais) são geralmente chamados de surfels e existem vários algoritmos para a manipulação e visualização eficiente deles. Um ponto chave para a eficiência de muitos métodos é o uso de estruturas de particionamento do espaço. Geralmente octrees e KD-trees, por utilizarem cortes alinhados com os eixos são preferidas em vez das BSP-trees, mais genéricas. Neste trabalho, apresenta-se uma estrutura chamada Constrained BSP-tree (CBSP-tree), que pode ser vista como uma estrutura intermediárias entre KD-trees e BSP-trees. A CBSP-tree se caracteriza por permitir cortes arbitrários desde que seja satisfeito um critério de validade dos cortes. Esse critério pode ser redefinido de acordo com a aplicação. Isso permite uma aproximação melhor de regões curvas. Apresentam-se algoritmos para construir CBSP-trees, valendo-se da flexibilidade que a estrutura oferece, e para realizar operações booleanas usando uma nova classificação de interior/exterior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O controle de robôs móveis não holonômicos apresenta como principal desafio o fato de estes sistemas não serem estabilizáveis em um ponto através de uma realimentação de estados suave e invariante no tempo, conforme o Teorema de Brockett. Para contornar este resultado, técnicas clássicas utilizam leis de controle variante no tempo ou não suaves (descontínuas). Entretanto, estas técnicas não prevêem durante o cálculo da lei de controle restrições nas variáveis do sistema e assim, muitas vezes, geram entradas de controle que são incompatíveis com uma implementação real. Neste trabalho são desenvolvidos algoritmos de controle preditivo baseado em modelo (MPC) para o controle de robôs móveis não holonômicos dotados de rodas. No MPC, restrições nas variáveis de estado e de controle podem ser consideradas durante o cálculo da lei de controle de uma forma bastante direta. Além disso, o MPC gera implicitamente uma lei de controle que respeita as condições de Brockett. Como o modelo do robô é não linear, é necessário um algoritmo de MPC não linear (NMPC). Dois objetivos são estudados: (1) estabilização em um ponto e (2) rastreamento de trajetória. Através de extensivos resultados de simulação, é mostrada a eficácia da técnica. Referente ao primeiro problema, é feita uma análise comparativa com algumas leis clássicas de controle de robôs móveis, mostrando que o MPC aplicado aqui apresenta uma melhor performance com relação às trajetórias de estado e de controle. No problema de rastreamento de trajetória, é desenvolvida uma técnica linear, alternativa ao NMPC, utilizando linearizações sucessivas ao longo da trajetória de referência, a fim de diminuir o esforço computacional necessário para o problema de otimização. Para os dois problemas, análises referentes ao esforço computacional são desenvolvidas com o intuito de mostrar a viabilidade das técnicas de MCP apresentadas aqui em uma implementação real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the last years the number of industrial applications for Augmented Reality (AR) and Virtual Reality (VR) environments has significantly increased. Optical tracking systems are an important component of AR/VR environments. In this work, a low cost optical tracking system with adequate attributes for professional use is proposed. The system works in infrared spectral region to reduce optical noise. A highspeed camera, equipped with daylight blocking filter and infrared flash strobes, transfers uncompressed grayscale images to a regular PC, where image pre-processing software and the PTrack tracking algorithm recognize a set of retro-reflective markers and extract its 3D position and orientation. Included in this work is a comprehensive research on image pre-processing and tracking algorithms. A testbed was built to perform accuracy and precision tests. Results show that the system reaches accuracy and precision levels slightly worse than but still comparable to professional systems. Due to its modularity, the system can be expanded by using several one-camera tracking modules linked by a sensor fusion algorithm, in order to obtain a larger working range. A setup with two modules was built and tested, resulting in performance similar to the stand-alone configuration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

deos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo dedeo a ser produzido por essas iniciativas tem sido chamado genericamente dedeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição dedeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura dedeo 3D em tempo real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A relação entre operadoras de planos de saúde e prestadores de serviços é permeada por uma série de conflitos que interferem diretamente na garantia da assistência prestada ao usuário, assim como na manutenção de custos compatíveis com a sustentabilidade e o desenvolvimento do mercado de saúde suplementar. Nesse contexto, o estabelecimento de um contrato formal entre operadoras e prestadores possui um papel determinante nessa relação, por ser um instrumento que confere mais transparência e segurança por meio do estabelecimento claro dos direitos e deveres das partes envolvidas. Nesse sentido, a ANS estabeleceu ao longo dos últimos anos quatro regulamentações que estabelecem a obrigatoriedade e os requisitos necessários para o estabelecimento de contratos, dado o grau de informalidade nessas relações. O presente trabalho tem como objetivos analisar o processo de construção e implantação dessas regulamentações e discutir os principais efeitos dessas ações regulatórias até dezembro de 2012. A dissertação adota uma abordagem qualitativa e utiliza como estratégia de investigação o estudo de caso, ou seja, buscou-se esclarecer, por meio de análise documental e da percepção dos principais atores envolvidos, ‘o como’ e ‘o porquê’ da entrada desse tema no escopo da regulação estatal, os resultados preliminares dessa ação regulatória com uma análise da atuação da agência reguladora nesse processo. Os resultados indicam que as regulamentações não produziram efeitos relevantes na minimização dos conflitos entre operadoras e prestadores até o encerramento desta pesquisa, sendo necessária a integração com outras ações regulatórias, como, por exemplo, a mudança do modelo de remuneração vigente no mercado e a adoção de ferramentas de Análise de Impacto Regulatório. Em síntese, o estudo evidenciou que, embora seja reconhecida a relevância da regulamentação desse objeto, ainda são muitas as dificuldades para seu cumprimento, tanto por parte de operadoras e prestadores quanto pela atuação do agente regulador, principalmente no que tange a sua capacidade de fiscalização e estabelecimento de punições.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de produção de chumbo, a partir da reciclagem de baterias ácido-chumbo, gera uma grande quantidade de resíduo sólido durante a etapa de fundição, quando, então, o chumbo é recuperado na sua forma metálica. As impurezas presentes nas matérias-primas, juntamente com outros materiais adicionados para promover as reações necessárias ao referido processo, formam a escória proveniente de fornos de fundição de chumbo. Essa escória é um resíduo de alta alcalinidade, sendo essencialmente constituída de ferro, e com concentrações menores de enxofre, sódio e chumbo. Outros metais, que estão como impurezas nas matérias-primas, também são encontrados em pequenas concentrações. Por ser o resíduo de maior geração na indústria de reciclagem de baterias, em torno de 15 a 30% em massa do material que entra no forno de redução forma a escória, ter um alto custo econômico e representar um grande passivo ambiental relacionado à sua geração e disposição final, a escória é estudada neste trabalho. O objetivo geral desta pesquisa é o estudo da possibilidade de minimização do impacto ambiental ocasionado pela geração desta escória, focando-se tanto na minimização da sua geração, quanto da sua periculosidade em relação à norma brasileira NBR 10004 para a classificação de resíduos sólidos. A primeira etapa do trabalho constituiu-se da caracterização do resíduo quanto à sua composição química, efeito ambiental, composição mineralógica e estrutural. A caracterização química do resíduo envolveu a sua análise por espectrometria de emissão atômica; a caracterização quanto ao efeito ambiental envolveu ensaios de lixiviação e solubilização e análise do pH; a caracterização mineralógica foi feita por meio da difração de raios X e a caracterização estrutural foi realizada por microscopia eletrônica de varredura. Após, foram verificadas as condições operacionais do processo com o propósito de identificar possíveis modificações no mesmo. Paralelamente, partiu-se para a sua simulação no aplicativo FactSage versão 5.3.1, na qual foram modificadas as condições operacionais do processo para um melhor entendimento do mesmo e verificação do seu comportamento na busca dos dois objetivos principais do trabalho. Nesta etapa, observou-se que a adição de ferro poderia ser minimizada para gerar menos resíduo e as adições de carbonato de sódio e carbono sólido poderiam ser otimizadas para melhorar as características do extrato lixiviado do resíduo gerado. Finalmente, na etapa de melhoria do processo, buscou-se implementar novas condições operacionais nos fornos industriais e verificar o seu efeito nas características do resíduo gerado. Os resultados mostraram que é possível uma redução da geração de resíduo através da minimização da adição de ferro à carga do forno rotativo até um certo ponto, a partir do qual problemas operacionais começam a ocorrer. A minimização da periculosidade do resíduo também é possível pela otimização das adições de carbonato de sódio e carbono sólido à carga.