27 resultados para tecnologia de alto custo

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

90.00% 90.00%

Publicador:

Resumo:

A reciclagem de resíduos na forma de materiais e componentes de construção civil tem sido uma alternativa bem sucedida em diversos casos, beneficiando a sociedade de várias maneiras, como pela economia de uso de matérias primas extraídas da natureza, pela redução do consumo de energia na produção de materiais e pela diminuição da poluição ambiental. Neste trabalho se estuda a viabilidade de reciclagem de um resíduo industrial sólido, gerado na operação de corte das peças de contrafortes de calçados1, cuja quantidade de geração de resíduos na Região do Vale dos Sinos - RS é estimada em 80 ton/mês, o que eqüivale a um volume mensal de 550m3 de resíduos. Até hoje o resíduo tem como destino final o descarte em aterros apropriados, devido ao alto custo necessário para a reutilização do material no processo industrial. A proposta para o uso do resíduo neste trabalho é sua adição em matriz de gesso, gerando um novo compósito para posterior uso na produção de materiais e componentes de construção civil. A realização do trabalho permitiu verificar que a adição do resíduo em matriz de gesso é possível, em teores de até 25% (massa de resíduo moído em relação à massa de gesso da matriz), não exigindo tecnologia sofisticada para moldagem. Os resultados de ensaios realizados para caracterização do compósito indicam que o resíduo adicionado tem comportamento semelhante ao de uma fibra, incrementando de forma muito significativa a resistência ao impacto e à flexão e o comportamento pós-fissuração. A adição dos resíduos aumentou a tenacidade da matriz , evitando rupturas bruscas e proporcionando uma deformação plástica considerável. O compósito gerado é resistente ao manuseio, sendo adequado para uso na construção civil.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A evapotranspiração (ET) abrange todos os processos que envolvem a mudança de fase líquida ou sólida para vapor de água. Globalmente, suas principais componentes são a evaporação nos oceanos, corpos d’água e solo e a transpiração pela cobertura vegetal. O conhecimento da ET da superfície terrestre para a atmosfera é muito importante para a resolução de inúmeras questões relacionadas aos recursos hídricos. Dentre essas questões, destacam-se planejamento de bacias hidrográficas e, em especial, o manejo da irrigação. Esse tipo de informação é igualmente relevante para estudos climáticos uma vez que, por meio da ET, ocorre redistribuição de umidade e calor da superfície para a atmosfera.As metodologias convencionais de estimativa da ET, em geral, apresentam muitas incertezas. Essas incertezas aumentam muito quando o interesse é o comportamento espacial da mesma. A única tecnologia que permite acessar esse tipo de informação, de forma eficiente e econômica, é o sensoriamento remoto. Por meio de dados derivados de imagens de satélite é possível calcular o balanço de energia de uma região e acessar as reais taxas de ET. A literatura internacional apresenta alguns modelos para estimar a ET por meio de sensoriamento remoto. A verificação dessas estimativas é feita por medidas dos termos do balanço de energia realizadas por sensores colocados em torres meteorológicas. Esse tipo de informação, no entanto, é de alto custo e de difícil aquisição. Após revisão de literatura, foram escolhidos os algoritmos SEBAL (Surface Energy Balance Algorithm for Land) e SSEBI (Simplified Surface Energy Balance Index). O primeiro foi adotado por ser um dos mais utilizados e o segundo pela sua simplicidade.Dessa maneira, a partir de 44 imagens de satélite, praticamente livres de cobertura de nuvens, do sensor AVHRR (Advanced Very High Resolution Radiometer), a bordo do satélite NOAA-14, e dados climatológicos de algumas estações, foram geradas séries de coberturas de ET real para o Estado do Rio Grande do Sul em nível diário, durante o ano de 1998. Para efeito de simplificação, na análise dos resultados foram escolhidas algumas áreas representativas das principais classes de cobertura do Estado: área cultivada, campo, área urbana, banhado, lagoa e floresta. Os resultados demonstraram que, para o SEBAL, asperdas médias anuais (mm ano-1) ocorrem, em ordem decrescente nas classes banhado (827), lagoa (732), floresta (686), área cultivada (458), campo (453) e área urbana (276). Para o S-SEBI, esta ordem é a seguinte: floresta (918), banhado (870), lagoa (669), área cultivada (425), campo (403) e área urbana (363). Ficou evidente que as classes com as menores influências antrópicas apresentaram as maiores taxas de ET. Outra observação feita é que, em média, as estimativas do S-SEBI superestimam a ET em relação ao SEBAL, na porção leste do Estado, e o oposto na porção oeste. Foi verificado, ainda, um eixo de decréscimo da ET na primeira metade do ano da porção noroeste para sudeste, e posterior crescimento na segunda metade do ano, em sentido oposto.As verificações foram feitas de forma indireta por meio de um balanço hídrico anual simplificado em algumas bacias hidrográficas do Estado, por meio de valores de ET real para a cultura do milho em algumas localidades do Estado e medidas de evaporação de tanque do tipo Classe A. Em geral, os resultados foram considerados coerentes, o que confere à metodologia utilizada um grande potencial de uso, uma vez que possibilita acessar a distribuição espacial da ET.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A literatura sobre Teste de Software apresenta diversas estratégias e metodologias que definem critérios eficazes e automatizáveis para selecionar casos de teste capazes de detectar erros em softwares. Embora eficientes na descoberta de erros, as técnicas de seleção de casos de teste exigem que uma quantidade relativamente grande de testes seja realizada para satisfazer os seus critérios. Essa característica acarreta, em parte, um alto custo na atividade de teste, uma vez que, ao fim de cada teste deve-se verificar se o comportamento do software está ou não de acordo com os seus requisitos. Oráculo para teste de software é um mecanismo capaz de determinar se o resultado de um teste está ou não de acordo com os valores esperados. Freqüentemente, assume-se que o próprio projetista de teste é o responsável por esta tarefa. A automatização da atividade dos oráculos deu origem a oráculos automáticos, os quais são capazes de determinar o bom ou mau funcionamento do software a partir de uma fonte de informação confiável. Ao longo dos anos, a especificação formal vêm sendo largamente utilizada como fonte de informação para oráculos automáticos. Diversas estratégias vêm propondo geradores de oráculos baseados em especificações formais. Dentre as características marcantes dessas estratégias, cita-se aquelas que são aplicáveis a implementações derivadas a partir da estrutura da especificação e aquelas que geram oráculos a partir de técnicas específicas de seleção de casos. Essas características, entretanto, limitam a aplicação abrangente dos oráculos por restringi-los tanto a implementações derivadas diretamente de especificações como ao uso de técnicas específicas de seleção de casos de teste. Este trabalho apresenta um estudo sobre os geradores de oráculos para teste de software, identifica aspectos fundamentais que regem seu processo de construção e propõe uma estratégia que permite a geração de oráculos semi-automaticamente, mesmo para implementações não derivadas diretamente da estrutura da especificação. A estratégia proposta é, também, aplicável aos casos de teste derivados de qualquer técnica de seleção de casos de teste.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O dimensionamento de pilares em mineração de carvão, no Brasil, sempre foi considerado conservativo em relação às metodologias e características das camadas que estava sendo lavrada. Torna-se necessário reverter o status-quo existente nesse tema para que a atividade de mineração em carvão se torne mais lucrativa e segura ao mesmo tempo. Problemas geomecânicos, que causaram acidentes fatais, diminuição das reservas de carvão, alto custo de extração e baixa recuperação na lavra são decorrentes ao baixo conhecimento do comportamento geomecânico do maciço rochoso e das metodologias de modelamento geomecânicos. Esse trabalho propõe uma nova técnologia de mapeamento geomecânico e caracterização geomecânica para determinar parâmetros geomecânicos das rochas que formam o sistema piso-pilarteto de uma camada de carvão. O dimensionamento de pilares, então, deve ser baseado nessas informações que alimentam um modelo geomecânico que utiliza métodos numéricos para solucionálos. Dentro do processo de aquisição de informações geomecânicas são propostos novos métodos de mapeamento geomecânico por janela amostral e o cálculo dos índices espaçamento médio e freqüência de descontinuidades. Baseado nas características quantitativas das descontinuidades é proposto o cálculo do RQD* (Rock Quality Designation teórico) para a camada de carvão com base na função de distribuição que se ajusta ao histograma de distribuição do espaçamento de descontinuidades. Esse procedimento refletiu melhor a qualidade do maciço rochoso, baseado no índice RMR (Rock Mass Rating). Considerando-se a qualidade do maciço rochoso e utilizando critérios de rupturas empíricos, foram estimados os parâmetros geomecânicos das rochas que alimentaram os modelos geomecânicos.(Continua)_ Foram gerados modelos numéricos para simular situações reais encontradas na camada Bonito em Santa Catarina e propor um novo paradigma para dimensionamento de pilares, baseado em simulação numérica, considerando todo o entorno do pilar, compreendendo o sistema piso-pilarteto. Os resultados desses modelos são comparados com o monitoramento das deformações dos pilares para confrontar as simulações numéricas com o comportamento geomecânico do maciço insitu. Os resultados apresentaram grande qualidade e concordância com o comportamento dos pilares apresentados no monitoramento das deformações, provando que a metodologia proposta aqui pode ser utilizada em futuros projetos de dimensionamento de pilares.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta pesquisa estuda o Fundo Operação Empresa-FUNDOPEM do Estado do Rio Grande do Sul, visando analisar como a desconcentração industrial foi tratada na sua formulação e execução durante os quatro governos do período de 1988 a 2000. Os dados foram coletados através de análise documental e de entrevistas semi-estruturadas com os Secretários de Estado, responsáveis pela gestão do FUNDOPEM, no período analisado, com representantes de entidades de classe patronal e dos trabalhadores, com representante de organizações de caráter regional e com técnicos do governo estadual. Todos com alto conhecimento do tema e do objeto deste estudo. Constatou-se que o FUNDOPEM tem, nas suas justificativa e nos seus critérios, a tarefa de promover a desconcentração industrial, porém, 74,85% das empresas beneficiadas localizamse na Macro-região Nordeste, no eixo mais industrializado do Estado. Isto revela uma contradição entre a justificativa e a execução do Fundo, questionando as modalidades de concessão, uma vez que a descentralização industrial é apenas um dos fatores de composição do enquadramento perfeito, que concede o volume máximo de benefícios e não é fator excludente de projetos. Mesmo assim, o volume máximo foi concedido a empresas do eixo mais industrializado, mostrando o caráter não diretivo da gestão do FUNDOPEM. Ainda como resultado, discute-se preliminarmente a eficácia e a viabilidade de instrumentos de incentivo fiscal na promoção da desconcentração produtiva que, pelo seu alto custo, são necessariamente seletivos no enquadramento de empresas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O carrapato Boophilus microplus é um dos mais importantes ectoparasitas dos rebanhos bovinos, estando em todas as áreas tropicais e subtropicais entre o paralelo 32 °N e 32 °S, abrangendo regiões que se dedicam à pecuária na América, África, Ásia e Oceania. O controle do carrapato B. microplus é realizado principalmente com o uso de acaricidas, entretanto devido a crescente preocupação com os problemas criados pela poluição química do ambiente, ao alto custo e toxicidade das drogas e ao aparecimento de carrapatos resistentes aos acaricidas, alternativas para o controle do B. microplus devem ser encontradas. A sobrevivência dos carrapatos depende grandemente da sua capacidade de evadir o sistema imunológico dos hospedeiros, portanto antígenos da glândula salivar poderiam ser alvos para intervenção imunoprofilática. Neste trabalho foram isolados cDNAs não previamente descritos correspondentes a antígenos presentes na glândula salivar. cDNAs que codificam para proteínas similares a paramiosina e calreticulina foram seqüenciados, expressos em Escherichia coli e as proteínas recombinantes purificadas, tendo sido produzidos soros policlonais contra as proteínas recombinantes em coelhos. As seqüências foram caracterizadas e alinhamentos múltiplos com outras seqüências foram determinados. O gene da calreticulina mostrou ser expresso em todos os estágios e tecidos testados, tanto em experimentos de RT-PCR quanto de Western blot, tendo sido demonstrado também a sua secreção pela saliva. Análise filogenética indica o agrupamento do gene de B. microplus com seqüências de outros artrópodos. Soros de bovinos infestados não reconhecem a calreticulina recombinante, apesar dela ser reconhecida pelo soro de cães infestados pelo carrapato Rhippicephalus sanguineus. A paramiosina mostrou-se, em ensaios de Western blot, também estar presente em todos os estágios testados, porém não na saliva. A paramiosina recombinante foi capaz de ligar colágeno e IgGs. Ambas as proteínas correspondem a proteínas multi-funcionais possivelmente envolvidas na imunomodulação do hospedeiro, tendo sido sugeridas como imunógenos protetores contra outros parasitas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os compostos de concreto polímero vem se tornando, em países desenvolvidos, uma boa opção para a construção civil, especialmente onde se necessita resistência elevada, cura rápida e boa durabilidade. Grande parte destes compostos são produzidos com as resinas epóxi e poliéster, em especial, a isoftálica. No Brasil, entretanto, não se tem conhecimento da aplicação e nem mesmo de grupos de pesquisa e desenvolvimento sistematizados, atuando na área, possivelmente devido ao desconhecimento das propriedades, da metodologia de produção e do alto custo do concreto polímero. Diante deste panorama, o presente trabalho tem como objetivo produzir e analisar composições de concreto polímero de custos reduzidos, utilizando como aglomerante a resina poliéster ortoftálica, em função de seu custo, e a resina poliéster isoftálica, que tem sido tradicionalmente utilizada. Inicialmente foram determinadas a resistência à compressão axial e absorção de água em composições de concreto polímero, com variados teores de resina, visando a escolha de um teor de aglomerante mínimo. Na segunda parte do programa experimental foi analisada a influência do teor de cinza volante (fíler) e do tipo de resina na resistência à compressão axial, na resistência à tração na flexão, no comportamento frente ao ataque químico, no módulo de elasticidade e no desgaste por abrasão. A microestrutura das amostras que sofreram ataque químico foi analisada em microscópio eletrônico de varredura. Os resultados mostraram que os concretos polímeros de resina poliéster isoftálica e ortoftálica exibiram bom comportamento mecânico e químico. A cinza volante contribui tanto no aspecto mecânico, quanto no químico. Constatou-se que a resina ortoftálica, quando utilizada simultaneamente com areia e cinza volante, exibe comportamento semelhante à resina isoftálica no concreto polímero, apesar das propriedades da resina poliéster ortoftálica serem inferiores as da isoftálica.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A iluminação hospitalar, nos espaços de permanência dos pacientes, deve levar em conta os requisitos visuais de seus dois grupos principais de usuários: o staff, com vistas a viabilizar a execução de procedimentos médicos, e os pacientes, que devem ter garantias de boas condições de conforto visual. Os requisitos visuais de ambos usuários incluem diversos critérios quantitativos e qualitativos de iluminação. Além do compromisso de iluminar as tarefas visuais e outras atividades, os sistemas de iluminação também são responsáveis pela criação de impressões ambientais, influenciando as respostas emocionais dos usuários. Isso é particularmente importante nos hospitais, uma vez que os mesmos abrigam pessoas fragilizadas e com alto nível de estresse. Contudo, a prática indica que os projetos de iluminação nestes espaços priorizam os requisitos quantitativos, em detrimento da qualidade visual do ambiente ou das respostas emocionais que estes provocam. Similarmente, tais instalações são sujeitas a restrições econômicas impostas pelo alto custo de construção dos hospitais. Neste contexto, o presente trabalho tem como objetivo estabelecer diretrizes para projetos de iluminação natural e artificial nos espaços de internação e recuperação dos hospitais, enfatizando os critérios qualitativos envolvidos Assim, foram realizados dois estudos de caso: no Hospital Santa Rita, do Complexo Hospitalar da Santa Casa de Misericórdia e no Hospital Moinhos de Vento, ambos em Porto Alegre. Os espaços estudados nos dois hospitais foram os quartos das unidades de internação, as UTI e as salas de recuperação pós-anestésicas dos centros cirúrgicos. A metodologia utilizada para a avaliação dos sistemas de iluminação natural e artificial destes espaços foi baseada em uma análise comparativa entre as medições das condições de iluminação e o nível de satisfação dos usuários. A análise e interpretação dos resultados dos estudos de caso forneceram subsídios para a identificação de padrões nos projetos de iluminação dos hospitais investigados, assim como características individuais. Como decorrência, foi possível elaborar princípios gerais de projeto e diretrizes específicas para a iluminação natural e artificial dos espaços de internação e recuperação, os quais consideram as implicações dos aspectos quantitativos e qualitativos destes sistemas no conforto visual dos usuários.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho visa abordar um aspecto importante em um sistema de gestão empresarial - a mensuração dos custos relacionados à qualidade e a proposição de melhorias a partir da análise destes custos. Um dos obstáculos mais importantes para o estabelecimento e consolidação de programas de qualidade nas empresas é a idéia errônea de que alta qualidade implica, necessariamente, em alto custo. Na maioria das vezes, as organizações não possuem indicadores que mensurem tais custos, tomando decisões equivocadas em relação ao nível de qualidade a ser praticado em seus produtos ou serviços. Em diversos contextos, prevalece a ênfase no retomo imediato, sem se considerar os custos com perdas pela não-qualidade. Esta dissertação busca identificar e analisar os custos diretos relacionados à qualidade nas suas quatro grandes categorias. As primeiras duas categorias incluem os custos que aparecem quando a função qualidade falha (custos da não-qualidade). São os chamados custos de falhas internas e custos de falhas externas, de acordo com a situação do produto no instante da falha, se dentro da empresa ou após ter sido vendido aos clientes. As duas últimas categorias incluem os custos da função qualidade (ou custos da qualidade propriamente dita), divididos em custos de prevenção, englobando tudo o que é feito para prevenir defeitos, e custos de avaliação, que reúnem os esforços despendidos para remover do processo os produtos defeituosos. Para garantir a sua sobrevivência no mercado, empresas devem estar preparadas para medir seus custos de qualidade e de não-qualidade, visualizando oportunidades de redução de custos e tomada de ações para a melhoria contínua do ambiente produtivo, justificando assim o investimento em qualidade Apoiando-se numa sistemática estruturada,o trabalho faz a identificação e análise dos custos diretos relacionados à qualidade. Um estudo prático, realizado em uma indústria de balas no estado do Rio Grande do Sul, demonstra a importância estratégica e econômica da identificação, análise e gerenciamento desses custos, propondo melhorias decorrentes da análise das causas dos principais valores levantados, destacando ainda as melhorias propostas a partir desta análise na empresa em estudo. O estudo identificou que a principal categoria de custos relacionados à qualidade refere-se à categoria de custos das falhas internas que correspondem,em média, à 12% do faturamento da empresa. Além disso, o impacto na redução dos custos da não-qualidade ultrapassa o lucro líquido da empresa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A introdução de espécies exóticas é uma prática que acompanha a história da humanidade, sendo as espécies introduzidas a base da nutrição e economia em vários países. Porém, esse processo contínuo tem levado a uma homogeneização da flora e fauna global. Os ecossistemas aquáticos, que têm recebido menor atenção que os terrestres, têm sofrido perda de diversidade, hibridação, introdução de patógenos, degradação do habitat além da necessidade e alto custo de controle das espécies introduzidas. O desenvolvimento da aqüicultura tem acelerado a introdução de peixes exóticos, que são a base dessa produção em países como o Brasil. Além desta, entre as razões para a introdução citam-se o esporte, a manipulação ecológica com controle de organismos indesejáveis, o melhoramento dos estoques, a ornamentação ou ainda introduções acidentais. No Rio Grande do Sul, nos rios dos Campos de Cima da Serra estão ocorrendo introduções da espécie exótica truta arco- íris (Oncorhynchus mykiss) desde meados da década de 90 como forma de estímulo ao turismo rural. O objetivo dessa prática é a pesca esportiva, que atrai turistas de várias regiões. Porém, os rios da região possuem várias espécies de peixes endêmicas e as conseqüências dessa prática sobre a biota aquática são desconhecidas. O objetivo do presente trabalho é avaliar o efeito da introdução da truta arco-íris sobre o ecossistema de rios de baixa ordem no município de São José dos Ausentes – RS, Brasil. Para tanto foi descrita a biologia da truta arco- íris no novo ambiente, verificando sua alimentação, movimentação, presença e viabilidade da reprodução. A ictiofauna autóctone dos rios com ausência e presença de trutas foi comparada, bem como o efeito da predação sobre a macrofauna bentônica. A ictiofauna foi amostrada com o uso da pesca elétrica, sendo o conteúdo estomacal das trutas avaliado sazonalmente. Três trutas foram marcadas e acompanhadas por ii biotelemetria para determinação da sua área de vida. Um experimento com ninhos artificiais foi conduzido para verificação da sobrevivência de ovos de trutas nas condições dos rios de São José dos Ausentes. O experimento de exclusão de peixes foi feito a fim de avaliar o efeito da predação sobre a macrofauna bentônica, comparando a macrofauna em rios com e sem trutas. Os resultados indicaram que a truta arco- íris tem como alimento principal os invertebrados bentônicos, porém as maiores classes de tamanho incluem peixes em seus alimentos principais. Logo após sua introdução a movimentação é restrita, porém alguns exemplares foram capturados em um rio onde não foi feita introdução dessa espécie. Apesar de baixa, a sobrevivência dos adultos ocorre, assim como a reprodução. A sobrevivência dos ovos também é baixa, porém, uma pós-larva foi encontrada. A ictiofauna autóctone é diferenciada nos rios com presença de truta, apresentando menor riqueza e diversidade e uma tendência a diminuição da biomassa. A macrofauna bentônica também é diferenciada, apesar de não ser possível atribuir essa diferença somente à presença das trutas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introdução: As doenças mitocondriais apresentam características heterogêneas devido à própria natureza e função da mitocôndria, que possui o seu próprio DNA (mtDNA). A disfunção mitocondrial pode afetar um único órgão ou ser uma doença multissistêmica, de manifestação na infância ou na vida adulta, podendo ter um padrão de herança materna ou mendeliana. O diagnóstico é complexo e requer uma investigação criteriosa, passo-a-passo, com atenção a história clínica, exames laboratoriais, neuroimagem e, muitas vezes, a biópsia muscular para análise histoquímica, bioquímica e genética. A análise molecular é fundamental na definição do diagnóstico e os protocolos propostos até o momento são, geralmente, direcionados para um grupo de pacientes com características clínicas homogêneas. Objetivos: os objetivos deste trabalho foram: a) propor um protocolo combinando dados clínicos e laboratoriais para indicar a melhor forma de investigação molecular de pacientes com suspeita clínica de doença do DNA mitocondrial, b) Comparar os achados clínicos e laboratoriais nos pacientes com e sem mutação no mtDNA, c) avaliar quais são os fatores clínicos preditivos de mutação no mtDNA que podem ser utilizados como sinalizadores para o médico decidir quando deve ser realizado um procedimento diagnóstico invasivo e de alto custo, c) estimar a proporção de mtDNA mutado, através da técnica PCR em tempo real em um grupo de pacientes com deleção, correlacionando com a idade de início dos sintomas e gravidade de manifestações clínicas, d) relatar achados de RNM com espectroscopia por emissão de prótons em pacientes com deleção no mtDNA. Pacientes, material e métodos: Foram selecionados, no ambulatório de doenças mitocondriais do HCPA, 43 pacientes com suspeita clínica de doença mitocondrial. Esse pacientes foram submetidos à análise, por etapas, de 5 mutações de ponto no mtDNA de leucócitos, de deleção no mtDNA de músculo e ao sequenciamento do tRNAleu e tRNAlys. Os pacientes com resultados positivos e negativos para mutações do mtDNA foram então comparados em relação às suas características clínicas e laboratoriais. Foram selecionados 11 pacientes para a determinação da percentagem relativa de deleção do mtDNA no tecido muscular e 3 pacientes para a descrição da RNM com espectroscopia. Resultados – Foram encontradas mutações no mtDNA em 17 pacientes (39.9%) distribuídas da seguinte forma: 4 pacientes com MELAS (A3243G), 1 paciente com síndrome de Leigh (T8993C) e 12 pacientes com deleções no mtDNA. As características significativamente mais freqüentes no grupo de pacientes com mutação no mtDNA comparados com os demais foram: miopatia (p=0,032), retinopatia pigmentar (p=0,007), oftalmoplegia e ptose (p=0,002), baixa estatura (p=0,04), hipotrofismo (p=0,033) e acidose lática (p=0,006). A quantificação do mtDNA pela técnica de PCR em tempo real foi realizada em 11 amostras de músculo de pacientes com deleção no mtDNA e com diferentes manifestações clínicas. Não houve correlação entre a percentagem relativa de deleção no mtDNA com os fenótipos clínicos (PEO, KSS e encefalomiopatia associado à doença multissistêmica), bem como com a idade de início das manifestações clínicas. A RNM com espectroscopia por emissão de prótons realizada em três pacientes com deleção no mtDNA associada a um quadro clínico não clássico mostrou achados distintos para cada paciente, sendo comum a todos as lesões cerebrais e a presença do pico invertido de lactato. Conclusões - A criteriosa seleção clínica e laboratorial se mostrou apropriada e o protocolo empregado se mostrou eficiente, uma vez que a mutação no mtDNA pode ser detectada em 17 dos 43 pacientes com suspeita de doença mitocondrial. Os pacientes positivos para deleção no mtDNA apresentaram algumas características clínicas preditivas para doença do mtDNA, o que pode ser importante na indicação de um procedimento invasivo (biópsia muscular) e de alto custo. A técnica e PCR em tempo real pode ser utilizado para quantificar a percentagem relativa de mtDNA deletado, porém para o diagnóstico das deleções, essa técnica deve ser realizada de forma complementar à técnica tradicional (Southern blot). O número amostral ainda é pequeno para correlacionar a quantidade relativa de mtDNA deletado com as síndromes mitocondriais clássicas e não clássicas. A RNM com espectroscopia por emissão de prótons, por possibilitar a detecção do lactato cerebral, parece ter utilidade na avaliação clínica de pacientes com suspeita clínica de doença mitocondrial, mesmo quando o quadro não é clássico.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A escassez de água, o alto custo do tratamento de efluentes e a iminente cobrança pelo uso e descarte da água vêm preocupando a sociedade e incentivando pesquisas na área de otimização do uso da água e minimização de efluentes. O setor industrial é um dos setores que mais tem se preocupado e se empenhado em encontrar soluções para este problema, pois vivencia os dois problemas ao mesmo tempo, a alta demanda de água e o tratamento dos efluentes gerados. É neste contexto que este trabalho se insere, através de um estudo de caso na Companhia Petroquímica do Sul (Copesul), mais especificamente no setor de utilidades. Neste estudo, foi feita uma análise dos principais processos envolvidos, desde a captação da água até seus consumidores finais, para a identificação da demanda de água e dos locais com maior potencial de reaproveitamento. Para tanto, foi necessária a realização de um balanço hídrico da unidade de tratamento de água usando combinações de dados de planta, estimativas e medições em campo, que foram ajustados através de reconciliação de dados. Os resultados obtidos para esta primeira etapa foram satisfatórios, obtendo uma redução do consumo de água estimada em 40 m3.h-1 e economia anual com o tratamento da água e efluentes de aproximadamente R$ 80.000,00. Também foram apresentadas duas propostas de configurações na planta para a aplicação destas alternativas de reaproveitamento. Numa segunda etapa, realizou-se um balanço de massa e energia para a torre de resfriamento, objetivando reduzir tanto o consumo de água de reposição como o descarte de efluente. O potencial de redução obtido na taxa volumétrica de purga do sistema, considerando apenas o efeito evaporativo e estado estacionário, foi estimado em 20 %. As iniciativas de reuso das águas de lavagem e enxágüe dos equipamentos, bem como da otimização do sistema de resfriamento, conduzem a uma redução da demanda de água e da geração de efluentes, trazendo benefícios econômicos e ambientais para a indústria.