918 resultados para Congelamento e processamento
Resumo:
A implementação de estratégias visando à conservação de espécies medicinais apresenta grande importância, tanto do ponto de vista ecológico quanto econômico. Petiveria alliacea L., espécie da família Phytolacaceae, conhecida como guiné, erva-de alho, erva-tipi ou amansa-senhor, pode ser encontrada desde a América Central até a América do Sul. Esta espécie possui ampla utilização medicinal, devido à presença, em sua composição, de vários polissulfetos, como o DTS (dibenziltrissulfeto), com propriedades antifúngica, antineoplásica e imunomodulatória, entre outras. O objetivo deste trabalho foi a conservação in vitro de germoplasma de Petiveria alliacea obtido de diferentes populações ocorrentes no Rio de Janeiro, através de métodos baseados em cultura de tecidos e criopreservação. Plantas obtidas através da germinação in vitro foram utilizadas como matrizes para a micropropagação através da multiplicação de meristemas pré-existentes em meio MS sem reguladores de crescimento, e embriões somáticos foram obtidos de forma direta a partir da cultura de explantes foliares das linhagens estudadas (Magé MG; Marechal Hermes MH; Niterói NT; Vila Isabel VI e Planta envasada AL), em presença de PIC (20μM) e 2,4D (22,6 μM), após 60 dias de cultivo. Os ápices caulinares das plantas micropropagadas e os embriões somáticos obtidos foram submetidos à criopreservação através de técnicas de vitrificação, encapsulamento-vitrificação e encapsulamento-desidratação, com a avaliação da pré-cultura e de soluções crioprotetoras (PVS2 e PVS3), em diferentes concentrações e tempos de exposição. Os resultados mostraram uma taxa de 100% de germinação in vitro. As condições para a pré-cultura de ápices foram padronizadas, entretanto não foram obtidos resultados positivos após o descongelamento. Por outro lado, os embriões da linhagem AL (linhagem embriogênica em cultura há 24 meses) mantiveram sua capacidade multiplicativa (100%) (embriogênese secundária) quando submetidos à desidratação em sacarose (0,5M) e expostos às soluções de vitrificação PVS2 e PVS3 pelos menores tempos (15 e 30 minutos). Os diferentes meios de recuperação apresentaram respostas variáveis em relação à capacidade multiplicativa dos embriões. O encapsulamento/vitrificação foi a técnica que promoveu maior tolerância dos embriões ao congelamento. A recuperação dos embriões através de multiplicação após a criopreservação abre uma perspectiva de conservação de genótipos com alta produção de polissulfetos, de interesse para a indústria farmacêutica
Resumo:
Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4
Resumo:
A Deficiência Intelectual (DI) é uma condição definida como um funcionamento intelectual significativamente prejudicado, expresso juntamente com limitações em pelo menos duas áreas do comportamento adaptativo que se manifestam antes dos 18 anos de idade. A prevalência estimada da DI na população em geral é de 2-3% e um número expressivo de casos permanece sem um diagnóstico definitivo. Há um consenso geral de que a DI é mais comum em indivíduos do sexo masculino em relação aos do sexo feminino. Entre as explicações para este excesso está a concentração de genes específicos para a habilidade cognitiva no cromossomo X. MicroRNAs (miRNAs) são pequenas moléculas de RNA não codificador que modulam a expressão gênica pós-transcricional de RNAs mensageiros alvo. Recentemente, estudos têm demonstrado a importância essencial dos miRNAs para o desenvolvimento e funcionamento cerebrais e sabe-se que o cromossomo X tem uma alta densidade de genes de miRNAs. Neste contexto, os miRNAs são candidatos potenciais como fatores genéticos envolvidos na Deficiência Intelectual Ligada ao X (DILX). Neste estudo, foram analisadas as regiões genômicas de 17 genes de miRNAs expressos no cérebro localizados no cromossomo X, com o objetivo de investigar o possível envolvimento de variantes na sequência destes miRNAs na DILX. Para este fim, selecionamos amostras de DNA genômico (sangue periférico) de 135 indivíduos do sexo masculino portadores de DI sugestiva de DILX de um grupo de mais de 1.100 pacientes com DI encaminhados ao Serviço de Genética Humana da UERJ. O critério de inclusão para este estudo era de que os probandos apresentassem um ou mais parentes do sexo masculino afetados pela DI que fossem interligados por via materna. As amostras de DNA dos pacientes foram amplificadas utilizando a técnica de reação em cadeia da polimerase, seguida por purificação e sequenciamento direto pelo método de Sanger dos fragmentos amplificados. Para avaliar a conservação dos 17 miRNAs foi realizada uma análise filogenética in silico incluindo sequências dos miRNAs selecionados de humanos e de outras 8 espécies de primatas estreitamente relacionadas. Não foram encontradas alterações nas sequências nos genes de 17 miRNAs analisados, mesmo diante do padrão genético altamente heterogêneo da população brasileira. Adicionalmente, a análise filogenética destes miRNAs revelou uma alta conservação entre as espécies comparadas. Considerando o papel dos miRNAs como reguladores da expressão gênica, a ausência de alterações e a alta conservação entre primatas sugerem uma forte pressão seletiva sobre estas moléculas, reforçando a sua importância funcional para o organismo em geral. Apesar de não termos encontrado variantes de sequência nos miRNAs estudados, o envolvimento de miRNAs na DI não pode ser completamente descartado. Alterações fora da molécula de miRNA precursor, nos fatores de processamento, nos sítios alvo e variações no número de cópias de genes de miRNAs podem implicar em alteração na expressão dos miRNAs e, consequentemente, na funcionalidade do miRNA maduro. Sendo assim, uma análise sistemática da expressão de miRNAs em pacientes com DILX é urgentemente necessária, a fim de desvendar novos genes/mecanismos moleculares relacionados a esta condição.
Resumo:
O crescimento da população e dos núcleos urbanos durante o século XX, sobretudo nos países em desenvolvimento, contribuiu para o aumento das áreas impermeáveis das bacias hidrográficas, com impactos importantes nos sistemas de drenagem urbana e na ocorrência de enchentes associadas. As enchentes trazem prejuízos materiais, na saúde e sociais. Recentemente, têm sido propostas práticas conservacionistas e medidas compensatórias, que buscam contribuir para o controle das enchentes urbanas, através do retardo do pico e amortecimento dos hidrogramas. Modelos matemáticos hidrológicos-hidráulicos permitem a simulação da adoção destas medidas de controle, demonstrando e otimizando sua localização. Esta dissertação apresenta os resultados da aplicação do modelo hidrológico Storm Water Management Model (SWMM) à bacia hidrográfica de estudo e representativa do rio Morto localizada em área peri-urbana em Jacarepaguá na cidade do Rio de Janeiro, com área de 9,41 km. O processamento do modelo SWMM foi realizado com o apoio da interface Storm and Sanitary Analysis (SSA), integrada ao sistema AutoCAD Civil 3D. Além da verificação da adequabilidade do modelo à representação dos sistemas hidrológico e hidráulico na bacia, foram desenvolvidos estudos para dois cenários como medidas de controle de enchentes: cenário 1, envolvendo implantação de um reservatório de detenção e, cenário 2, considerando a implantação de reservatórios de águas pluviais nos lotes. Os hidrogramas resultantes foram comparados ao hidrograma resultante da simulação nas condições atuais. Além disso, foram avaliados os custos associados a cada um dos cenários usando o sistema de orçamento da Empresa Rio Águas da PCRJ. Nas simulações foram adotadas a base cartográfica, e os dados climatológicos e hidrológicos previamente observados no contexto do projeto HIDROCIDADES, Rede de Pesquisa BRUM/FINEP, na qual este estudo se insere. Foram representados os processos de geração e propagação do escoamento superficial e de base. Durante o processo de calibração, realizou-se a análise de sensibilidade dos parâmetros, resultando como parâmetros mais sensíveis os relativos às áreas impermeáveis, especialmente o percentual de área impermeável da bacia (Ai). A calibração foi realizada através do ajuste manual de sete parâmetros do escoamento superficial e cinco do escoamento de base para três eventos. Foram obtidos coeficientes de determinação entre 0,52 e 0,64, e a diferença entre os volumes escoados e observados entre 0,60% e 4,96%. Para a validação do modelo foi adotado um evento pluviométrico excepcional observado na cidade em abril de 2010, que à época causou enchentes e grandes transtornos na cidade. Neste caso, o coeficiente de determinação foi igual a 0,78 e a diferença entre volumes foi de 15%. As principais distorções entre hidrogramas observados e simulados foram verificados para as vazões máximas. Em ambos os cenários as enchentes foram controladas. A partir destes estudos, pôde-se concluir que o melhor custo-benefício foi o cenário 2. Para este cenário, foi observado maiores amortecimento e retardo da vazão de pico do hidrograma, igual a 21,51% da vazão simulada para as condições atuais da bacia. Os custos de implantação orçados para os reservatórios de lote ficaram 52% a menos do que o do reservatório de detenção.
Resumo:
A propriedade de auto-cura, em redes inteligente de distribuição de energia elétrica, consiste em encontrar uma proposta de reconfiguração do sistema de distribuição com o objetivo de recuperar parcial ou totalmente o fornecimento de energia aos clientes da rede, na ocorrência de uma falha na rede que comprometa o fornecimento. A busca por uma solução satisfatória é um problema combinacional cuja complexidade está ligada ao tamanho da rede. Um método de busca exaustiva se torna um processo muito demorado e muitas vezes computacionalmente inviável. Para superar essa dificuldade, pode-se basear nas técnicas de geração de árvores de extensão mínima do grafo, representando a rede de distribuição. Porém, a maioria dos estudos encontrados nesta área são implementações centralizadas, onde proposta de reconfiguração é obtida por um sistema de supervisão central. Nesta dissertação, propõe-se uma implementação distribuída, onde cada chave da rede colabora na elaboração da proposta de reconfiguração. A solução descentralizada busca uma redução no tempo de reconfiguração da rede em caso de falhas simples ou múltiplas, aumentando assim a inteligência da rede. Para isso, o algoritmo distribuído GHS é utilizado como base na elaboração de uma solução de auto-cura a ser embarcada nos elementos processadores que compõem as chaves de comutação das linhas da rede inteligente de distribuição. A solução proposta é implementada utilizando robôs como unidades de processamento que se comunicam via uma mesma rede, constituindo assim um ambiente de processamento distribuído. Os diferentes estudos de casos testados mostram que, para redes inteligentes de distribuição compostas por um único alimentador, a solução proposta obteve sucesso na reconfiguração da rede, indiferentemente do número de falhas simultâneas. Na implementação proposta, o tempo de reconfiguração da rede não depende do número de linhas nela incluídas. A implementação apresentou resultados de custo de comunicação e tempo dentro dos limites teóricos estabelecidos pelo algoritmo GHS.
Resumo:
Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.
Resumo:
O objetivo deste estudo foi avaliar a dissolução do tecido pulpar pelo NaOCl contendo em sua composição agentes redutores da tensão superfical (Chlor-Xtra) quando comparados ao NaOCl convencional. Com esta finalidade 44 dentes unirradiculares humanos com tecido pulpar preservado em solução de formol a 10% foram agrupados em 22 pares de acordo com a semelhança de sua anatomia interna previamente avaliada por radiografias. Os canais foram instrumentados com sistema Protaper Universal e todo o processo de irrigação teve, além do tempo, seu volume e fluxo controlado por meio automatizado por meio do sistema Vatea Endodontic Iirrigation Device. Após cada canal que compunha um par ter sido instrumentado empregando-se uma das diferentes soluções testadas, as quais foram previamente avaliadas quanto a sua tensão superficial, ambos foram devidamente preparados e enviados para processamento e análise histológica. Cortes a 0,5, 1,2,3 e 4mm do ápice foram realizados, corados e fotografados. As imagens foram analisadas por meio do programa AxioVision a fim de estabelecer o percentual de tecido remanescente em relação à área total do canal nos segmentos estudados. As análises referentes a tensão superficial revelaram que o Chlor-Xtra demonstrou possuir significativamente menor tensão superficial quando comparado ao NaOCL convencional (p>0,05). A análise estatística por meio do test T student das áreas dos canais, demonstrou que o pareamento das amostras foi eficiente entre os grupo NaOCl e Chlor-Xtra (p>0,05). Em relação ao Percentual de Tecido Remanescente (PTR), os resultados revelaram por meio de análise feita pelo teste Kruskal-Wallis e o teste de correlação de Spearman que o nível de corte influencia significantemente o PTR (P<0,05).Por fim, o teste de Mann-Whitney indicou que o PTR não é influenciado pela solução irrigadora utilizada (P>0,05). A partir da análise dos resultados foi possível concluir que quanto mais apicalmente foi o nível de corte histológico dos canais estudados, maior foi o percentual de tecido pulpar remanescente independentemente da solução utilizada, portanto.não houve diferença significativa na qualidade do debridamento produzido pelas duas soluções testadas, desta forma indicando que a presença de agentes modificadores da tensão adicionados ao NaOCl não foi capaz de superar os resultados obtidos por soluções de NaOCl convencionais.
Resumo:
No Brasil, entre as áreas protegidas e regulamentadas por lei estão às denominadas Unidades de Conservação (UC) e são definidas assim por possuírem características ambientais, estéticas, históricas ou culturais relevantes, importantes na manutenção dos ciclos naturais, demandando regimes especiais de preservação, conservação ou exploração racional dos seus recursos. O Parque Estadual da Serra da Tiririca (PESET), criado pela Lei 1.901, de 29 de novembro de 1991 localizado entre os municípios de Niterói e Maricá no Estado do Rio de Janeiro, enquadra-se na categoria de UC de Proteção Integral abrigando uma extensa faixa de Mata Atlântica em seus limites. Para a presente pesquisa foi feita uma classificação de Uso da terra e cobertura vegetal, refinada por pesquisas feitas através do trabalho de campo, que subsidiou a elaboração da proposta de Zoneamento Ambiental para o parque. O processamento digital da imagem foi feito utilizando-se o sistema SPRING desenvolvido pelo Instituto de Pesquisas Espaciais (INPE). A confecção dos mapas temáticos foi feita com apoio do sistema Arcgis desenvolvido pela ESRI. O Sistema de Informação Geográfica (SIG) foi empregado para as modelagens ambientais. Nessa etapa foram consideradas, de forma integrada, a variabilidade taxonômica, a expressão territorial e as alterações temporais verificáveis em uma base de dados georreferenciada. A tecnologia SIG integra operações convencionais de bases de dados, relativas ao armazenamento, manipulação, análise, consulta e apresentação de dados, com possibilidades de seleção e busca de informações e suporte à análise geoestatística, conjuntamente com a possibilidade de visualização de mapas sofisticados e de análise espacial proporcionada pelos mapas. A opção por esta tecnologia busca potencializar a eficiência operacional e permitir planejamento estratégico e administração de problemas, tanto minimizando os custos operacionais como acelerando processos decisórios. O estudo feito através da modelagem computacional do PESET apresentará o emprego das técnicas amplamente utilizadas no monitoramento ambiental, sendo úteis aos profissionais destinados à gestão e aos tomadores de decisão no âmbito das políticas públicas relacionadas à gestão ambiental de Unidades de Conservação.
Resumo:
Dados sedimentológicos e hidrodinâmicos foram utilizados para estudar a dinâmica sedimentar da margem interna da restinga da Marambaia (baía de Sepetiba, Rio de Janeiro, SE Brasil). Foram realizadas três campanhas amostrais para coleta de sedimentos ao longo da restinga da Marambaia e na área submersa adjacente. Adicionalmente, em dezembro de 2013, três fundeios simultâneos para aquisição de dados hidrodinâmicos foram conduzidos paralelamente à restinga, ao longo da profundidade média de 6,5 metros. As medições abrangeram dois ciclos de maré (25 horas), incluindo perfilagem com CTDs, perfilagem correntométrica e coleta de amostras de água para determinação das concentrações do material particulado em suspensão. A partir do processamento das amostras de sedimentos em laboratório, foram obtidos os parâmetros estatísticos (média, desvio-padrão e assimetria) para o detalhamento da caracterização sedimentológica da área de estudo, bem como a aplicação de um modelo de tendência direcional de transporte de sedimentos (GisedTrend). A restinga apresenta areias médias e bem selecionadas, enquanto as amostras coletadas na porção submersa, em profundidades maiores que 2 m, passam de areias finas e bem selecionadas a siltes finos e mal selecionados em maiores profundidades. Quatro casos de tendência de transporte foram explorados em um total de 14 possibilidades e os mais significativos foram analisados com o intuito de identificar áreas de acumulação e remoção de sedimentos, podendo estar associados aos processos responsáveis pelo transporte de sedimentos, tais como correntes geradas pelos ventos locais, marés e dispersão de plumas de sedimentos em suspensão. Os dados hidrodinâmicos, durante o período amostrado, permitiram observar o complexo padrão de circulação existente, especialmente na área adjacente à área central da restinga. Dentre as observações realizadas, verificou-se a ocorrência de assimetria da maré, fato já documentado em trabalhos anteriores conduzidos próximo ao principal canal de acesso à baia, com períodos de enchente mais curtos e períodos de vazante mais longos. Diferentemente do que foi reportado nestes trabalhos, os períodos de vazante foram associados às correntes de maior intensidade. As concentrações de material particulado em suspensão situaram-se, em média, entre 10 e 20 mg/L tanto em superfície como próximo ao fundo; no entanto, suas variações temporais não apresentaram qualquer relação com as fases da maré. Possíveis áreas de convergência e divergência da circulação / células de transporte de sedimentos foram identificadas e comparadas aos vetores de tendência de transporte obtidos através do modelo GisedTrend, com resultados satisfatórios.
Resumo:
Neste trabalho contemplamos o emprego de detectores de voz como uma etapa de pré- processamento de uma técnica de separação cega de sinais implementada no domínio do tempo, que emprega estatísticas de segunda ordem para a separação de misturas convolutivas e determinadas. Seu algoritmo foi adaptado para realizar a separação tanto em banda cheia quanto em sub-bandas, considerando a presença e a ausência de instantes de silêncio em misturas de sinais de voz. A ideia principal consiste em detectar trechos das misturas que contenham atividade de voz, evitando que o algoritmo de separação seja acionado na ausência de voz, promovendo ganho de desempenho e redução do custo computacional.
Resumo:
O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.
Resumo:
A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.
Resumo:
No contexto do planejamento e gestão dos recursos hídricos em bacias hidrográficas, é crescente a demanda por informações consistentes relativas ao estado do ambiente e pressões ambientais de forma integrada, para que possam informar à população e subsidiar atividades do setor público e privado. Essa demanda pode ser satisfeita com a modelagem e integração em um Sistema de Informações Geográficas (SIG), com propriedades e funções de processamento que permitem sua utilização em ambiente integrado. Desta forma, neste trabalho é apresentada uma metodologia para a avaliação muticriterial dos recursos hídricos de bacias hidrográficas, que vai desde a seleção de indicadores e definição dos pesos, até a execução de avaliações e espacialização de resultados. Esta metodologia é composta por duas fases: avaliação da vulnerabilidade dos recursos hídricos de uma bacia hidrográfica a partir do uso de sistemas de suporte à decisão espacial, e, avaliação da qualidade das águas através da adaptação de um Índice de Qualidade das Águas. Foi adotada uma base de conhecimento, sistemas de suporte à decisão, SIG e uma ferramenta computacional que integra estes resultados permitindo a geração de análises com cenários da vulnerabilidade dos recursos hídricos. Em paralelo, a qualidade das águas das sub-bacias hidrográficas foi obtida a partir da adaptação do cálculo do Índice de Qualidade das águas proposto pela Companhia de Tecnologia de Saneamento Ambiental (CETESB) e aplicação do Índice de Toxidez. Os resultados mostraram sub-bacias com seus recursos hídricos mais ou menos vulneráveis, bem como sub-bacias com toxidez acima da legislação. A avaliação integrada entre áreas mais vulneráveis e que apresentam menor qualidade e/ou maior toxidez poderá nortear a tomada de decisão e projetos visando a conservação dos recursos hídricos em bacias hidrográficas.
Resumo:
A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
Resumo:
Os SIG Sistemas de Informação Geográfica vêm sendo cada vez mais estudados como ferramentas facilitadoras de análises territoriais com o objetivo de subsidiar a gestão ambiental. A Ilha Grande, que pertence ao município de Angra dos Reis, localiza-se na baía de Ilha Grande no sul do estado do Rio de Janeiro e constitui-se no recorte espacial de análise. Apresenta uma dinâmica ambiental complexa que se sobrepõem principalmente aos usos de proteção ambiental e de atividade turística em uma porção do território em que as normatizações legais são difíceis de serem aplicadas, pois são reflexos de interesses que se manifestam em três esferas do poder a municipal, a estadual e a federal. O objetivo principal desta pesquisa é a realização do processamento digital de imagem para auxiliar a gestão territorial da Ilha Grande. Em foco, a estrada Abraão - Dois Rios, que liga Abraão (local de desembarque dos turistas, principal núcleo da Ilha) a Dois Rios (local de visitação por estudantes e pesquisadores, núcleo que abrigava o presídio, atualmente abriga sede do centro de pesquisa e museu da Universidade do Estado do Rio de Janeiro), ambos protegidos por diferentes categorias de unidades de conservação. A metodologia fundamenta-se no processamento digital de imagem através da segmentação e da classificação supervisionada por pixel e por região. O processamento deu-se a partir da segmentação (divisão de uma imagem digital em múltiplas regiões ou objetos, para simplificar e/ou mudar a representação de uma imagem) e dos processos de classificações de imagem, com a utilização de classificação por pixel e classificação por regiões (com a utilização do algoritmo Bhattacharya). As segmentações e classificações foram processadas no sistema computacional SPRING versão 5.1.7 e têm como objetivo auxiliar na análise de uso da Terra e projetar cenários a partir da identificação dos pontos focais de fragilidade encontrados ao longo da estrada Abraão-Dois Rios, propensos a ocorrências de movimentos de massa e que potencializam o efeito de borda da floresta e os impactos ambientais. A metodologia utilizada baseou-se em análise de campo e comparações de tecnologias de classificação de imagens. Essa estrada eixo de ligação entre os dois núcleos tem significativa importância na história da Ilha, nela circulam veículos, pesados e leves, de serviço, pedestres e turistas. Como resultados da presente foram gerados os mapas de classificação por pixel, os mapas de classificação por região, o mapa fuzzy com a intersecção dos mapas de classificação supervisionada por região e os mapas com os locais coletados em campo onde são verificadas ocorrências de movimentos de massa nas imagens ALOS, 2000, IKONOS, 2003 e ortofotografias, 2006. Esses mapas buscam servir de apoio à tomada de decisões por parte dos órgãos locais responsáveis.