16 resultados para Especificações

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na matriz energética brasileira, o óleo diesel tem lugar de destaque, porém ainda é comercializado com teores de compostos sulfurados e nitrogenados considerados altos para as legislações ambientais que entrarão em vigor nos próximos anos. Tradicionalmente, a remoção desses compostos de enxofre de correntes de petróleo é realizada por processos de hidrotratamento (HDT). No entanto, devido as características do diesel brasileiro, se faz necessária maior severidade para atingir as novas especificações dos combustíveis. Isto implica em investimentos e custos operacionais crescentes para atender a demanda que se instala. Neste contexto, a adsorção está sendo estudada para a purificação da corrente de óleo diesel oriunda da etapa de hidrotratamento como polimento final para alcançar as especificações mais exigentes. Sabe-se que os adsorventes comerciais apresentam limitações na remoção destes contaminantes e uma alternativa que tem se mostrado promissora é a incorporação de metais de transição na estrutura do sólido. No presente trabalho foram modificados adsorventes comerciais, tais como aluminas, sílica-aluminas e argilas pela introdução dos elementos níquel, colbalto e molibdênio e testado o desempenho dessas modificações frente à adsorção de compostos sulfurados e nitrogenados presentes em um diesel hidrotratado. Foram feitas caracterizações químicas, físicas, texturais e morfológicas dos sólidos com e sem incorporação de metais de transição na estrutura original. Os experimentos de adsorção foram realizados a 40C. Avaliando todos os sólidos, o adsorvente que mostrou o melhor desempenho na remoção de compostos sulfurados e nitrogenados por massa de adsorvente foi a sílica-alumina sem modificações, que foi capaz de remover em torno de 90% de compostos nitrogenados e 55 % de sulfurados para 2 g de sólido / 10 mL de diesel. Para os materiais modificados, observou-se que a incorporação dos metais de transição ocasionou redução da sua área superficial e do volume total de poros. Desta maneira, os efeitos esperados pelas interações entre o sítios metálicos e os compostos de nitrogênio e enxofre foram reduzidos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A possibilidade de utilização de várias matérias graxas na produção do biodiesel nacional é um fator diferencial em relação aos outros países e requer um conhecimento mais profundo das particularidades do biodiesel obtido a partir de matérias-primas tão distintas. Neste contexto, se insere a presente pesquisa, em que se buscou estabelecer correlações entre algumas propriedades do biodiesel e a fonte oleaginosa que lhe deu origem. O biodiesel foi obtido a partir da reação de transesterificação etílica de dez diferentes matérias-primas graxas (óleos refinados de soja, arroz, canola, girassol, milho, oliva, cyclus (mistura contendo óleos de canola, milho e girassol); óleos brutos de mamona e murumuru, além de resíduo de fritura), utilizando etanolato de potássio como agente catalítico, em um reator com sistema de refluxo a 70C durante uma hora. Após purificação, foram determinadas algumas propriedades do biodiesel (massa específica, viscosidade, índice de acidez e índice de iodo) e da matéria-prima (massa específica, viscosidade, índice de acidez, índice de iodo e composição) que lhe deu origem. Os resultados obtidos nas caracterizações geraram gráficos de correlações entre os diversos parâmetros e os dados foram analisados estatisticamente pelo método de correlações canônicas. Para todas as amostras de biodiesel, os valores obtidos nas caracterizações foram compatíveis com as especificações estabelecidas pela ANP para o produto, com exceção do biodiesel de murumuru (índice de acidez elevado e viscosidade baixa) e do biodiesel de mamona (viscosidade e massa específica elevadas). Os dados estatísticos demonstram altas correlações entre o biodiesel (massa específica (87,4%), viscosidade (98,5%) e índice de acidez (82,8%)) e as matérias-primas (massa específica (92,1%) e viscosidade (99,3%)). Além disso, existe uma grande correlação entre o índice de iodo (84,5%) do biodiesel e o índice de iodo (77,2%) e a massa molar dos ésteres na faixa de C16-C18 (MMTG) presentes na matéria-prima (89,1%). Estes resultados estatísticos ratificam as observações analíticas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No mês de outubro de 2007 a Comissão Nacional de Cartografia (CONCAR) lançou uma norma cartográfica composta de especificações técnicas para Estruturação de Dados Geoespaciais Digitais Vetoriais (EDGV) para a realização do mapeamento topográfico sistemático no Brasil. No mês de novembro de 2008 foi publicado o Decreto n 6666, que institui a Infra-Estrutura Nacional de Dados Espaciais e ratifica o uso das normas homologadas pela CONCAR, pelas instituições Federais. Este trabalho realiza dois requisitos, a saber: (a) fornece um esquema relacional alinhado as especificações da EDGV e (b) implementa um protótipo, com vistas a sua utilização no processo de restituição fotogramétrica nas instituições públicas responsáveis pelo mapeamento topográfico no Brasil. A implementação é realizada em ambiente de software livre. Também é importante salientar o caráter educacional da plataforma de software a ser implementada, para que o seu uso seja também direcionado para o ensino teórico e prático da fotogrametria digital nas instituições de ensino e pesquisa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das maiores atividades humanas que gera impacto ao meio ambiente é o setor de transportes automotores, especialmente veículos que utilizam óleo diesel mineral como forma de combustível. Independente do conforto ou objetivos que levem a utilização deste tipo de transporte, estes produzem emissões que contém diversos tipos de poluentes atmosféricos. A substituição de óleo diesel mineral pelo biodiesel vegetal, vem se apresentando como uma alternativa para este setor, especialmente para o Brasil, que com base em sua imensa biodiversidade com plantas oleaginosas deverá se constituir em um dos maoires produtores mundiais de biodiesel vegetal. Este trabalho apresenta um estudo comparativo entre três tipos de oleaginosas (soja, algodão e mamona) e uma msitura binária v/v soja e algodão. Os resultados obtidos neste estudo foram comparados as especificações definidas pelas normas: Brasileira (RANP 07/2008), Européia (EN/14214) e Americana (ASTM D-6751). Entre todas as amostras estudadas, o óleo de mamona não atende algumas propiedades físico-químicas das normas em questão. As amostras de biodiesel de soja e algodão, individualmente e combinadas, com caracteristicas, aplicações, zoneamento agroclimático e sazonalidade de produção regionalmente diferente apresentam propiedades físico-químicas semelhantes, podendo ser considerada uma fonte renovavél de energia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo aplicar um algoritmo genético (GA) ao projeto de filtros FIR com coeficientes quantizados representados em somas de potências de dois com sinal (SPT). Os filtros FIR apresentam configurações que permitem a obtenção de fase linear, atributo desejado em diversas aplicações que necessitam de atraso de grupo constante. A representação SPT, de fácil implementação em circuitos, foi discutida e uma comparação das representações SPT mínimas e canônicas foi feita, baseada no potencial de redução de operações e na variedade de valores representáveis. O GA é aplicado na otimização dos coeficientes SPTs do filtro, para que este cumpra as suas especificações de projeto. Foram feitas análises sobre o efeito que diversos parâmetros do GA como a intensidade de seleção, tamanho das populações, cruzamento, mutação, entre outros, têm no processo de otimização. Foi proposto um novo cruzamento que produz a recombinação dos coeficientes e que obteve bons resultados. Aplicou-se o algoritmo obtido na produção de filtros dos tipos passa-baixas, passa-altas, passa-faixas e rejeita-faixas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo foi avaliar o efeito do fator C na resistência adesiva à dentina humana de um compósito à base de silorano, comparando-o com um compósito à base de metacrilato. Foram utilizados 40 molares humanos hígidos. Em metade da amostra foi realizado um preparo do tipo Classe I, com dimensões de 4x4 mm e 2 mm de profundidade, enquanto na outra metade foi realizado um preparo virtual (flat) com auxílio de uma matriz de teflon branco, com as mesmas dimensões da cavidade (4x4x2 mm), apoiada na superfície de dentina exposta. Cada grupo foi divido em dois, de acordo com o sistema restaurador: Sistema Adesivo P90 e resina Filtek P90; Adper Scotchbond Multiuso e resina Filtek Z350 XT (3M ESPE). Após a aplicação do sistema adesivo segundo as especificações do fabricante, as cavidades (real e virtual) foram preenchidas com as resinas (Z350 XT e P90) em dois incrementos. Foi realizada a fotoativação de cada incremento durante 25s. Após uma semana, as coroas foram seccionadas, obtendo-se espécimes constituídos de resina/dente na forma de um paralelepípedo (palitos). Estes palitos foram utilizados para o teste de microtração (Emic), onde a resistência adesiva na unidade MPa foi calculada. Os resultados foram avaliados estatisticamente pelo teste de análise de variância ANOVA One-Way (p = 0,05), e pelo teste de múltiplas comparações Student Newman Keuls. Foi observada uma diferença estatística entre a resina P90 (flat= 16,137,7 MPa e Cavidade= 16,759,0 MPa) e a Z350 XT (flat= 25,8211,6 MPa e Cavidade=24,4713,5 MPa), independentemente do tipo de cavidade restaurada. E não foi possível observar diferença estatística entre os tipos de cavidades (real ou virtual) restauradas com a mesma resina. Através dos testes realizados, foi possível concluir que: o fator C não afetou a resistência adesiva dos dois sistemas restauradores utilizados, e o tipo de sistema restaurador afeta a resistência adesiva, sendo que o sistema à base de silorano apresenta resultados inferiores ao de metacrilato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo de eventos amparado em métricas contábeis pode ser considerado como aquele que investiga se os retornos anormais no mercado acionário possuem uma contrapartida no lado real, ou seja, se a performance operacional da firma sofreu modificação decorrente de um determinado evento econômico. O presente estudo tem como foco as escolhas que um pesquisador deve fazer na hora da modelagem de um estudo de evento amparado em métricas contábeis, tais como: que medida de performance utilizar, que modelo de expectativa de performance operacional servirá como benchmark, e que teste estatístico poderia detectar com mais eficiência as anormalidades. Um exemplo de estudo que testa empiricamente, nos EUA, o efeito das escolhas acima nas especificações e poder dos testes estatísticos é o de Barber e Lyon (1996). O presente trabalho pretende testar empiricamente os modelos, analisados por esses autores, nas empresas brasileiras. Para tal, foram extraídas da base de dados da Economática todas as empresas listadas na Bolsa de Valores de São Paulo BOVESPA, com dados contábeis disponíveis para os anos de 2004 a 2010, sendo que foram objeto de análise os anos de 2005 a 2010. Obtiveram-se dados para 605 empresas, e uma média de 1606 observações por métrica contábil. Foram testadas 6 medidas contábeis de performance operacional e 13 modelos de expectativa de desempenho. Para atingir o objetivo, a pesquisa foi dividida em três fases. Fase I Elaboração dos Modelos de Expectativa e formação dos Grupos de Controle; Fase II Teste do Poder explicativo dos Modelos de Expectativa; Fase III Testes para Detectar Performance Operacional Anormal. Para o caso brasileiro, pode-se dizer que a melhor medida para detectar performances operacionais anormais é o ROA2 (Ebitda/Ativo Total), já que foi a que apresentou mais modelos que atenderam a todos os testes estabelecidos, em todas as fases da pesquisa. Quanto ao benchmark, o melhor apontado pelos resultados foi o filtro indústria, classificação Economática. O modelo de desempenho defasado da firma, também apresentou resultados satisfatórios. Por fim, o teste estatístico mais apropriado para detectar performances operacionais anormais é o de Wilcoxon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em 2005, a Agência Nacional de Saúde Suplementar (ANS) estabelece o padrão TISS (Troca de Informação na Saúde Suplementar), intercâmbio eletrônico obrigatório entre as operadoras de planos de saúde (cerca de 1500 registradas na ANS) e prestadores de serviços (cerca de 200 mil) sobre os eventos de assistência prestados aos beneficiários. O padrão TISS foi desenvolvido seguindo a estrutura do Comitê ISO/TC215 de padrões para informática em saúde e se divide em quatro partes: conteúdo e estrutura, que compreende a estrutura das guias em papel; representação de conceitos em saúde, que se refere às tabelas de domínio e vocabulários em saúde; comunicação, que contempla as mensagens eletrônicas; e segurança e privacidade, seguindo recomendação do Conselho Federal de Medicina (CFM). Para aprimorar sua metodologia de evolução, essa presente tese analisou o grau de interoperabilidade do padrão TISS segundo a norma ISO 20514 (ISO 20514, 2005) e a luz do modelo dual da Fundação openEHR, que propõe padrões abertos para arquitetura e estrutura do Registro Eletrônico de Saúde (RES). O modelo dual da Fundação openEHR é composto, no primeiro nível, por um modelo de referência genérico e, no segundo, por um modelo de arquétipos, onde se detalham os conceitos e atributos. Dois estudos foram realizados: o primeiro se refere a um conjunto de arquétipos demográficos elaborados como proposta de representação da informação demográfica em saúde, baseado no modelo de referência da Fundação openEHR. O segundo estudo propõe um modelo de referência genérico, como aprimoramento das especificações da Fundação openEHR, para representar o conceito de submissão de autorização e contas na saúde, assim como um conjunto de arquétipos. Por fim, uma nova arquitetura para construção do padrão TISS é proposta, tendo como base o modelo dual da Fundação openEHR e como horizonte a evolução para o RES centrado no paciente

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A liofilização - ou secagem a frio (freeze drying em inglês) - é um complexo processo multiestágios, onde o produto é primeiramente congelado e sua secagem feita através de sublimação. Devido a esta forma de secagem a liofilização se torna um processo atrativo particularmente importante para a estabilização de componentes orgânicos hidratados e lábeis, de origem biológica. O processo de liofilização é amplamente empregado na indústria farmacêutica, porém em termos de gestão de processo, deve-se evitar a liofilização a todo custo, pois o processo possui diversas desvantagens como: equipamentos de alto investimento, alta demanda energética, processo que demanda tempos longos e produtos com facilidade de hidratar e frágeis, necessitando ser cuidadosamente embalados e armazenados. Este trabalho tem como objetivo a diminuição do ciclo de liofilização de uma vacina viral e analisar a possibilidade de carregamento desse produto no liofilizador a temperaturas negativas, de forma a possibilitar o aumento de produtividade. Para tal, foram realizados três experimentos com ciclos de liofilização com 17 e 20h a menos que o ciclo de liofilização da vacina comercial. Os experimentos foram realizados com a mesma formulação do lote comercial e utilizando um liofilizador piloto. As modificações foram realizadas nas propriedades físicas do ciclo de liofilização atual (temperatura, pressão e tempo) e na temperatura de carga do produto, sem alteração na formulação da vacina ou embalagem primária. Amostras do produto liofilizado experimental foram analisadas quanto ao seu aspecto, desempenho, umidade residual, potência e termoestabilidade acelerada segundo os Mínimos Requerimentos da Organização Mundial da Saúde. Todos os resultados analisados estiveram dentro das especificações e próximos ou melhores quando comparados aos lotes comerciais de origem

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo apresentar a evolução da indústria do refino de petróleo no Brasil desde suas origens, sua evolução ao longo dos anos, explicitando as mudanças no perfil de produção, na matéria prima processada e na complexidade das nossas refinarias. Busca, também, apresentar os próximos passos para o refino de petróleo nacional, seus desafios face a produção de petróleos pesados e ácidos, bem como os impactos provocados pela necessidade de produção de derivados com especificações cada vez mais restritivas e com menor impacto ambiental. Optou-se pelo hidrorrefino como o primeiro grande passo para os próximos anos concluindo-se que unidades para o hidrotratamento de correntes intermediárias ou mesmo produto final assumirão um papel fundamental nos futuros esquemas de refino. Outra vertente importante analisada foi a necessidade de aumento de conversão, ressaltando-se que o caminho hoje escolhido de implantação de Unidades de Coqueamento Retardado se esgota no início da próxima década abrindo caminho para a tecnologia de hidroconversão de resíduo. Com relação à qualidade da gasolina e do óleo diesel foi apresentada uma proposta de esquema de refino para permitir o atendimento de especificações mais rígidas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pouco se sabe a respeito das consequências da operação de reparo nas propriedades mecânicas e metalúrgicas das juntas do aço ASTM A335 grau P91 soldadas por Arame Tubular. Neste trabalho foi realizado um estudo para analisar e caracterizar juntas de um tubo do aço P91 soldadas pelo processo Arame Tubular com proteção gasosa, antes e após situação de duplo reparo. Foram utilizadas técnicas de microscopia eletrônica de varredura (MEV), análise química semiquantitativa por EDS (Energy Dispersive Spectroscopy), microscopia óptica (MO), além da obtenção de medidas de microdureza Vickers e realização de ensaios de impacto e tração à temperatura ambiente. A macrografia revelou a existência de uma nova zona termicamente afetada formada no centro da junta reparada e a análise micrográfica mostrou que esta zona apresentou uma pequena tendência a formação de grãos menores do que na zona de fusão que sofreu reparo, além disso, a região tinha grãos colunares que não são característicos de uma zona termicamente afetada e quantidade de carbonetos menor comparativamente. Não houve variações significativas nos valores de tração e microdureza. Os ensaios de impacto revelaram baixos valores de energia absorvida na zona de fusão do 2 reparo, no entanto, todas as outras zonas avaliadas das juntas com e sem reparo apresentaram valores dentro das especificações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em estudos ecológicos é importante entender os processos que determinam a distribuição dos organismos. O estudo da distribuição de animais com alta capacidade de locomoção é um desafio para pesquisadores em todo o mundo. Modelos de uso de habitat são ferramentas poderosas para entender as relações entre animais e o ambiente. Com o desenvolvimento dos Sistemas de Informação Geográfica (SIG ou GIS, em inglês), modelos de uso de habitat são utilizados nas análises de dados ecológicos. Entretanto, modelos de uso de habitat frequentemente sofrem com especificações inapropriadas. Especificamente, o pressuposto de independência, que é importante para modelos estatísticos, pode ser violado quando as observações são coletadas no espaço. A Autocorrelação Espacial (SAC) é um problema em estudos ecológicos e deve ser considerada e corrigida. Nesta tese, modelos generalizados lineares com autovetores espaciais foram usados para investigar o uso de habitat dos cetáceos em relação a variáveis fisiográficas, oceanográficas e antrópicas em Cabo Frio, RJ, Brasil, especificamente: baleia-de-Bryde, Balaenoptera edeni (Capítulo 1); golfinho nariz-de-garrafa, Tursiops truncatus (Capítulo 2); Misticetos e odontocetos em geral (Capítulo 3). A baleia-de-Bryde foi influenciada pela Temperatura Superficial do Mar Minima e Máxima, no qual a faixa de temperatura mais usada pela baleia condiz com a faixa de ocorrência de sardinha-verdadeira, Sardinella brasiliensis, durante a desova (22 a 28C). Para o golfinho nariz-de-garrafa o melhor modelo indicou que estes eram encontrados em Temperatura Superficial do Mar baixas, com alta variabilidade e altas concentrações de clorofila. Tanto misticetos quanto os odontocetos usam em proporções similares as áreas contidas em Unidades de Conservação (UCs) quanto as áreas não são parte de UCs. Os misticetos ocorreram com maior frequência mais afastados da costa, em baixas temperaturas superficiais do mar e com altos valores de variabilidade para a temperatura. Os odontocetos usaram duas áreas preferencialmente: as áreas com as menores profundidades dentro da área de estudo e nas maiores profundidade. Eles usaram também habitats com águas frias e com alta concentração de clorofila. Tanto os misticetos quanto os odontocetos foram encontrados com mais frequência em distâncias de até 5km das embarcações de turismo e mergulho. Identificar habitats críticos para os cetáceos é um primeiro passo crucial em direção a sua conservação

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reação álcali-agregado - RAA é uma patologia de ação lenta que tem sido observada em construções de concreto capaz de comprometer suas estruturas. Sabe-se que a reação álcali-agregado é um fenômeno bastante complexo em virtude da grande variedade de rochas na natureza que são empregadas como agregados no preparo do concreto, podendo cada mineral utilizado afetar de forma distinta a reação ocorrida. Em função dos tipos de estrutura, das suas condições de exposição e dos materiais empregados, a RAA não se comporta sempre da mesma forma, em virtude disto a pesquisa constante neste tema é necessária para o meio técnico e a sociedade. Pesquisas laboratoriais, empíricas e experimentais tem sido rotina em muitos dos estudos da RAA dada ainda à carência de certas definições mais precisas a respeito dos métodos de ensaio, mas também em função da necessidade do melhor conhecimento dos materiais de uso em concretos como os agregados, cimentos, adições, aditivos entre outros e do comportamento da estrutura. Embora técnicas de prevenção possam reduzir significativamente a incidência da RAA, muitas estruturas foram construídas antes que tais medidas fossem conhecidas, havendo no Brasil vários casos de estruturas afetadas, sendo custosos os reparos dessas estruturas. Em estudos recentes sobre o tamanho das partículas de álcali-agregado e sua distribuição foi concluído que o tamanho do agregado está relacionado com o potencial danoso da RAA. Existem ainda indícios de que o tamanho e a distribuição dos poros do concreto também sejam capazes de influenciar o potencial reativo do concreto. Neste trabalho desenvolvemos um Sistema de Visão Artificial (SVA) que, com o uso de técnicas de Processamento de Imagens, é capaz de identificar em imagens de concreto, agregado e poros que atendam em sua forma, às especificações do usuário, possibilitando o cálculo da porosidade e produzindo imagens segmentadas à partir das quais será possível extrair dados relativos à geometria desses elementos. Serão feitas duas abordagens para a obtenção das imagens, uma por Escâner Comercial, que possui vantagens relacionadas à facilidade de aquisição do equipamento, e outra por micro tomógrafo. Uma vez obtidas informações sobre as amostras de concreto, estas podem ser utilizadas para pesquisar a RAA, comparar estruturas de risco com estruturas antigas de forma a melhorar a previsão de risco de ocorrência, bem como serem aplicadas a outras no estudo de outras patologias do concreto menos comuns no nosso país, como o efeito gelo/degelo.