972 resultados para Opçoes reais (Finanças)
Resumo:
A pesquisa que aqui se apresenta tem por temática principal o estudo sobre as políticas oficiais de avaliação da educação superior no Brasil e a compreensão crítica sobre as relações que os docentes da Universidade Estadual de Ponta Grossa (UEPG) têm estabelecido com os objetivos reais e proclamados das atuais políticas oficiais. Neste sentido, apresenta-se um breve histórico das concepções de Estado articulado às políticas públicas educacionais formuladas a partir da década de 70. Devido ao forte movimento de centralização dos processos educacionais e descentralização dos mecanismos de financiamento e gestão do sistema de educação que ocorre,principalmente, após os anos 90 com o enquadramento do Brasil no modelo neoliberal e que tem por objetivo atender as necessidades de reestruturação capitalista, prioriza-se a análise das diversas e profundas mudanças vivenciadas, a partir deste período, no trabalho dos docentes da educação superior por meio das constantes avaliações a que estão sendo expostos direta ou indiretamente. A validade e importância de investigar o tema se afirmam pela necessidade de compreender como estas políticas têm alterado a produção e o trabalho do professor universitário, o papel das Instituições de Ensino Superior e a qualidade da educação superior. A reflexão principal se concentra no estudo das intra e inter-relações estabelecidas entre as avaliações nacionais, as avaliações internas da UEPG e o exercício da profissão docente no campo de pesquisa. Os objetivos adotados foram: analisar as concepções de Estado no Brasil e como suas ações influenciaram as políticas educacionais; articular a História do Paraná à da UEPG e as propostas avaliativas do governo federal em relação a educação superior, considerando o período em que as avaliações eram ainda assistemáticas, porém dando ênfase ao momento em que as mesmas se tornaram institucionais; e perceber alguns dos enredamentos criados entre as avaliações externas e internas da UEPG e o trabalho docente. A metodologia empregada baseou-se na Teoria da Complexidade, na Pesquisa Participante e nas argumentações da abordagem do ciclo de políticas. Uma das considerações que podem ser ressaltadas é que a reinterpretação das políticas da instituição e a recontextualização poderiam potencializar o poder de intervenção e participação efetiva dos professores, mas que este processo não tem sido priorizado dentro da conjuntura de sobrevivência a precarização docente.
Resumo:
O presente trabalho pretende analisar a questão do descentramento do sujeito e da construção da subjetividade na (pós)modernidade a partir do objeto avatar digital e a virtualização para melhor entender de que maneira esse novo objeto se insere e se oferece como uma nova forma de sociabilidade. O mesmo se propõe abordar e desconstruir uma certa noção de indivíduo no que esta contribui para uma concepção de sujeitos como algo dotado de uma essência que enquanto tal negaria ao sujeito a sua dinamicidade e consequentemente a dimensão representacional das relações sociais tal como demonstrada por Goffman. Portanto, o intuito desse trabalho é o de tentar restituir ao objeto avatar digital a sua validade enquanto forma legítima de relação social ao compará-lo as demais formas de relações reais e/ou virtuais.
Resumo:
Na atualidade, tempos hipermodernos, a problemática do virtual está colocada em cena sob uma constituição exponencial. Nossas novas formas de ser, sentir e estar no mundo são cada vez mais influenciadas e mediadas por artefatos maquínicos em contínuos upgrades. Diante deste cenário, tal pesquisa busca destacar esta portentosa e nova interface do mundo contemporâneo onde subjetividade e tecnologia se imbricam de forma inédita e peculiar. Para tal, captura-se o saber fazer de um jogo que instaura um ambiente de simulação o qual oferece ao sujeito hipermoderno a possibilidade de viver uma segunda vida de acordo com os seus desejos analógicos e digitais. Como ferramenta metodológica decide-se por uma imersão vivencial no ambiente cibernético onde pesquisadora e sujeito se hibridizam em formas de duplos a partir de um ser analógico primordial, com novas demandas reais e virtuais. Desta imersão são obtidos os insumos básicos para as necessárias reflexões associados, naturalmente, ao pensamento de teóricos expoentes deste campo do saber humano. Um sintoma da hipermodernidade, tal qual uma tela de contato do limítrofe entre real e virtual, Second Life é, portanto, um dos caminhos escolhidos para o desvelamento de partes ínfimas desta nova faceta da aventura humana na História.
Resumo:
Este trabalho investiga a implementação de sistemas fuzzy com circuitos eletrônicos. Tais sistemas têm demonstrado sua capacidade de resolver diversos tipos de problemas em várias aplicações de engenharia, em especial nas relacionadas com controle de processos. Para processos mais complexos, o raciocínio aproximado da lógica fuzzy fornece uma maneira de compreender o comportamento do sistema, permitindo a interpolação aproximada entre situações observadas de entrada e saída. A implementação de um sistema fuzzy pode ser baseada em hardware, em software ou em ambos. Tipicamente, as implementações em software utilizam ambientes de programação integrados com simulação, de modo a facilitar o trabalho do projetista. As implementações em hardware, tradicionais ou evolutivas, podem ser analógicas ou digitais e viabilizam sistemas de maior desempenho. Este trabalho tem por objetivo pesquisar a implementação eletrônica de sistemas fuzzy, a fim de viabilizar a criação de sistemas reais capazes de realizar o mapeamento de entrada e saída adequado. O foco é a utilização de uma plataforma com uma arquitetura analógico-digital baseada em uma tabela de mapeamento armazenada em uma memória de alta capacidade. Memórias do tipo SD (Secure Digital) foram estudadas e utilizadas na construção do protótipo eletrônico da plataforma. Também foram desenvolvidos estudos sobre a quantização, especificamente sobre a possibilidade de redução do número de bits. Com a implementação realizada é possível desenvolver um sistema fuzzy num ambiente simulado (Matlab), configurar a plataforma e executar o sistema fuzzy diretamente na plataforma eletrônica. Os testes com o protótipo construído comprovaram seu bom funcionamento.
Resumo:
O presente trabalho investiga um método de detecção de anomalias baseado em sistemas imunológicos artificiais, especificamente em uma técnica de reconhecimento próprio/não-próprio chamada algoritmo de seleção negativa (NSA). Foi utilizado um esquema de representação baseado em hiperesferas com centros e raios variáveis e um modelo capaz de gerar detectores, com esta representação, de forma eficiente. Tal modelo utiliza algoritmos genéticos onde cada gene do cromossomo contém um índice para um ponto de uma distribuição quasi-aleatória que servirá como centro do detector e uma função decodificadora responsável por determinar os raios apropriados. A aptidão do cromossomo é dada por uma estimativa do volume coberto através uma integral de Monte Carlo. Este algoritmo teve seu desempenho verificado em diferentes dimensões e suas limitações levantadas. Com isso, pode-se focar as melhorias no algoritmo, feitas através da implementação de operadores genéticos mais adequados para a representação utilizada, de técnicas de redução do número de pontos do conjunto próprio e de um método de pré-processamento baseado em bitmaps de séries temporais. Avaliações com dados sintéticos e experimentos com dados reais demonstram o bom desempenho do algoritmo proposto e a diminuição do tempo de execução.
Resumo:
Geração e Simplificação da Base de Conhecimento de um Sistema Híbrido Fuzzy- Genético propõe uma metodologia para o desenvolvimento da base de conhecimento de sistemas fuzzy, fundamentada em técnicas de computação evolucionária. Os sistemas fuzzy evoluídos são avaliados segundo dois critérios distintos: desempenho e interpretabilidade. Uma metodologia para a análise de problemas multiobjetivo utilizando a Lógica Fuzzy foi também desenvolvida para esse fim e incorporada ao processo de avaliação dos AGs. Os sistemas fuzzy evoluídos foram avaliados através de simulações computacionais e os resultados obtidos foram comparados com os obtidos por outros métodos em diferentes tipos de aplicações. O uso da metodologia proposta demonstrou que os sistemas fuzzy evoluídos possuem um bom desempenho aliado a uma boa interpretabilidade da sua base de conhecimento, tornando viável a sua utilização no projeto de sistemas reais.
Resumo:
O objetivo deste estudo é discutir a associação entre padrão de consumo de álcool e dimensões de risco à exposição ao HIV, desdobradas em conhecimento sobre HIV e práticas sexuais entre universitários. Trata-se de uma pesquisa transversal com abordagem quantitativa, realizada com 416 universitários de 14 cursos distintos. Os dados foram coletados através de dois instrumentos e tratados através de estatística descritiva com o software SPSS 21.0. A pesquisa foi autorizada pelo Comitê de Ética em Pesquisa da Universidade do Estado do Rio de Janeiro, sob n 003.3.2012. A população de estudo é predominantemente do sexo masculino (59,6%), com faixa etária entre 19 a 22 anos (54,3%), de cor branca (57,5%), sem companheiros (69,2%) ou filhos (92,3%) e com maior percentual de católicos (31,3%) e daqueles que não possuem religião (33,7%). Destaca-se, ainda, que são possuidores de computador ou eletrônicos portáteis (98,8%) com fácil acesso à internet (96,8%). Os principais achados apontam que a maioria faz uso de álcool (60%), com a proporção de 7 homens para cada 3 mulheres. Relacionado ao AUDIT, foi identificado predomínio das zonas I (abstinência ou baixo risco-73,8%) e II (uso nocivo-20,4%). Sobre as relações sexuais, a maioria afirmou ter experiência sexual (69,5%), com idade da primeira relação entre 16 e 18 anos (54%), no entanto, mais homens (54,3%) afirmaram manter relações sexuais após o consumo de álcool do que mulheres (45,7%). Apesar do conhecimento sobre HIV/aids e álcool ser considerado como fator protetor pela literatura vigente, constatou-se que não há associação deste conhecimento com a prática sexual mais segura. Independente do padrão de consumo de bebidas alcoólicas, os universitários apresentam o mesmo tipo de prática sexual, muitas vezes se expondo à infecção ao HIV e outras doenças sexualmente transmissíveis. Dentre os dados analisados, um dos motivos de exposição ao HIV/Aids são as relações sexuais após a ingestão de bebida alcoólicas e o não uso de preservativos nestas situações. O consumo exagerado de bebidas alcoólicas está ligado ao sexo masculino e este grupo apresenta práticas sexuais de maior risco. Sugere-se que novos estudos possam analisar a relação de causa e efeito para verificar quais fatores podem influenciar de fato a exposição ao HIV de estudantes usuários de álcool. Estas informações são relevantes para conhecermos a atual demanda desse grupo e focar nas reais necessidades que são imperiosas para a prevenção dos futuros danos nocivos à saúde individual e coletiva. Torna-se necessário compreender qual é a demanda dos jovens em se expor a diversos riscos à saúde adotando práticas não seguras e, principalmente, o que de fato modula estas condutas.
Resumo:
Neste trabalho, será considerado um problema de controle ótimo quadrático para a equação do calor em domínios retangulares com condição de fronteira do tipo Dirichlet é nos quais, a função de controle (dependente apenas no tempo) constitui um termo de fonte. Uma caracterização da solução ótima é obtida na forma de uma equação linear em um espaço de funções reais definidas no intervalo de tempo considerado. Em seguida, utiliza-se uma sequência de projeções em subespaços de dimensão finita para obter aproximações para o controle ótimo, o cada uma das quais pode ser gerada por um sistema linear de dimensão finita. A sequência de soluções aproximadas assim obtidas converge para a solução ótima do problema original. Finalmente, são apresentados resultados numéricos para domínios espaciais de dimensão 1.
Resumo:
O crescimento do uso dos aerogeradores de pequeno porte em áreas urbanas em todo o mundo aponta para um mercado em expansão e extremamente promissor, principalmente no brasil, onde o potencial eólico é grande. tratando-se de máquinas pequenas existe interesse dos consumidores residenciais na sua utilização, seja para economia de energia ou por adesão às fontes alternativas. existe uma grande quantidade de fabricantes no mundo incluindo aerogeradores de alta, média e baixa qualidade. com isso surge a necessidade de criar métodos que avaliem estes produtos quanto ao seu rendimento energético, como ocorrem com as geladeiras, lâmpadas, fogões e outros, a fim de resguardar a qualidade deste equipamento ao consumidor. a proposta é criar um ciclo de teste (ou ciclo de ventos) baseado nos perfis de comportamentos diários de ventos urbano obtidos através de medições reais feitos pelo projeto sonda. esse perfil será usado para testar os aerogeradores de até 1 kw em laboratório, com auxílio de um túnel de vento a fim de determinar o rendimento energético do conjunto gerador, servindo como método para o aprimoramento desses aparelhos. outra possibilidade é o uso desta metodologia no programa brasileiro de etiquetagem, que classifica os produtos em função de sua eficiência energética. este trabalho também pode ser usado para acreditação de laboratórios de certificação que avaliam produtos em função de sua eficiência e/ou rendimento, visto que a acreditação é uma ferramenta estabelecida em escala internacional para gerar confiança na atuação de organizações que executam atividades de avaliação da conformidade.
Resumo:
Na atualidade observa-se vastos estudos sobre os processos na área do Design acerca de como projetar experiências e prototipar interações entre pessoas e sistemas, e mesmo entre pessoas por intermédio de sistemas. Enquanto todo tipo de produto produz uma experiência de uso, com a evolução da interatividade as relações estabelecidas entre os usuários e os produtos tornaram-se mais complexas e modificaram-se ao longo dos anos. A abordagem teórica destinada a tratar essas questões também expandiu e diversificou-se simultaneamente. A partir de um estudo sobre os processos interativos e o campo teórico relacionado, foi possível identificar um fenômeno relativamente recente em interfaces nas quais pode ser verificado um alto nível de interação, a saber: os sistemas de recompensa. Cabe salientar que este termo foi emprestado da Neurociência, aonde é utilizado para descrever o circuito responsável pelo gerenciamento do comportamento através da indução de prazer e dor. Portanto, o autor desta dissertação propõe uma acepção do termo no âmbito do design de componentes interativos para designar o artifício, que muitas interfaces atuais incorporaram, de conceder aos usuários a possibilidade de apreciarem, ou não, determinado conteúdo em rede. Assim, pode-se compreender que o emprego do termo aqui é metafórico. Neste processo os usuários podem fornecer outros tipos de feedback ao sistema, como por exemplo um comentário, ou compartilhamento, estimulando assim uma série de desdobramentos interativos e repercussões para a experiência de uso do produto. Este trabalho propõe uma investigação qualitativa sobre as interações concernentes aos sistemas de recompensa, abordando tanto questões objetivas funcionais dos sistemas, quanto questões referentes ao feedback dos usuários. O Facebook será amplamente analisado, por ter sido uma interface pioneira na manipulação dos sistemas de recompensa, na qual estes componentes alcançaram um alto nível de desenvolvimento até este momento. A justificativa para esta pesquisa se deve a dois fatores particularmente relevantes: primeiro, a ausência de conteúdo significativo na literatura relacionada atual. Em segundo lugar, a notável expansão dos sistemas criados com esta finalidade, conforme será demonstrado no estudo. O objetivo deste projeto é compreender de que forma o design dos sistemas de recompensa influenciam o fluxo de interações e o comportamento dos usuários atualmente. Para tanto, esta pesquisa procura verificar como determinados aspectos teóricos do design - dedicados à compreensão da dinâmica de processos interativos - se aplicam a experiências reais de interação no mundo contemporâneo. Por exemplo, diversos modelos e frameworks nas áreas de HCI (Interação Humano-Computador), UX (experiência do usuário), e design de experiências destacam conceitos condizentes com aspectos identificados nos sistemas de recompensa que por sua vez encontram-se em processo de desenvolvimento, guiados por tendências comerciais de uma forma quase que intuitiva, no sentido de que pouca atenção tem sido dada na literatura sobre as bases neuronais que fazem este processo funcionar. Desta forma, pretende-se fornecer subsídios para uma melhor compreensão do impacto que os sistemas de recompensa analisados nesta dissertação desempenham sobre a experiência de uso entre consumidores e produtos delineados dentro deste paradigma
Resumo:
Na atualidade observa-se vastos estudos sobre os processos na área do Design acerca de como projetar experiências e prototipar interações entre pessoas e sistemas, e mesmo entre pessoas por intermédio de sistemas. Enquanto todo tipo de produto produz uma experiência de uso, com a evolução da interatividade as relações estabelecidas entre os usuários e os produtos tornaram-se mais complexas e modificaram-se ao longo dos anos. A abordagem teórica destinada a tratar essas questões também expandiu e diversificou-se simultaneamente. A partir de um estudo sobre os processos interativos e o campo teórico relacionado, foi possível identificar um fenômeno relativamente recente em interfaces nas quais pode ser verificado um alto nível de interação, a saber: os sistemas de recompensa. Cabe salientar que este termo foi emprestado da Neurociência, aonde é utilizado para descrever o circuito responsável pelo gerenciamento do comportamento através da indução de prazer e dor. Portanto, o autor desta dissertação propõe uma acepção do termo no âmbito do design de componentes interativos para designar o artifício, que muitas interfaces atuais incorporaram, de conceder aos usuários a possibilidade de apreciarem, ou não, determinado conteúdo em rede. Assim, pode-se compreender que o emprego do termo aqui é metafórico. Neste processo os usuários podem fornecer outros tipos de feedback ao sistema, como por exemplo um comentário, ou compartilhamento, estimulando assim uma série de desdobramentos interativos e repercussões para a experiência de uso do produto. Este trabalho propõe uma investigação qualitativa sobre as interações concernentes aos sistemas de recompensa, abordando tanto questões objetivas funcionais dos sistemas, quanto questões referentes ao feedback dos usuários. O Facebook será amplamente analisado, por ter sido uma interface pioneira na manipulação dos sistemas de recompensa, na qual estes componentes alcançaram um alto nível de desenvolvimento até este momento. A justificativa para esta pesquisa se deve a dois fatores particularmente relevantes: primeiro, a ausência de conteúdo significativo na literatura relacionada atual. Em segundo lugar, a notável expansão dos sistemas criados com esta finalidade, conforme será demonstrado no estudo. O objetivo deste projeto é compreender de que forma o design dos sistemas de recompensa influenciam o fluxo de interações e o comportamento dos usuários atualmente. Para tanto, esta pesquisa procura verificar como determinados aspectos teóricos do design - dedicados à compreensão da dinâmica de processos interativos - se aplicam a experiências reais de interação no mundo contemporâneo. Por exemplo, diversos modelos e frameworks nas áreas de HCI (Interação Humano-Computador), UX (experiência do usuário), e design de experiências destacam conceitos condizentes com aspectos identificados nos sistemas de recompensa que por sua vez encontram-se em processo de desenvolvimento, guiados por tendências comerciais de uma forma quase que intuitiva, no sentido de que pouca atenção tem sido dada na literatura sobre as bases neuronais que fazem este processo funcionar. Desta forma, pretende-se fornecer subsídios para uma melhor compreensão do impacto que os sistemas de recompensa analisados nesta dissertação desempenham sobre a experiência de uso entre consumidores e produtos delineados dentro deste paradigma.
Resumo:
Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4
Resumo:
Este trabalho teve como objetivo avaliar o impacto radiológico atmosférico da Unidade de Concentrado de Urânio URA, Caetité, BA, através da modelagem da dispersão de radionuclídeos e a estimativa da dose efetiva anual (em mSv.ano-1). Para tal, utilizou-se o programa MILDOS-AREA que foi desenvolvido pelo Argonne National Laboratory (ANL) em conjunto com a U.S. Nuclear Regulatory Commission (USNRC), para avaliar impacto radiológico ambiental atmosférico nas instalações de mineração e beneficiamento de urânio. O incremento de dose efetiva anual para três grupos críticos hipotéticos e oito grupos populacionais reais foi estimado com base na medida de fluxos de radônio e na estimativa das concentrações de radionuclídeos em particulados no ar dos principais termos fontes da URA (cava da mina, depósito de estéril e britador). Paralelamente, as medidas de concentração de radônio e taxa de kerma no ar, reportadas nos relatórios dos programas de monitoração ambiental pré-operacional (PMAPO) e operacional (PMAO) da URA, foram avaliadas. Os valores de dose efetiva anual estimados para os grupos críticos hipotéticos variaram de 1,78E-02 a 2,10E-02 mSv.ano-1, enquanto que para os grupos populacionais, variaram de 7,49E-05 a 1,56E-02 mSv.ano-1. A maior contribuição para o incremento da dose foi devida a inalação do radônio, sendo responsável por quase a totalidade da dose efetiva anual estimada. A média da concentração de atividade de radônio no entorno da URA foi 137,21 Bq m-3 e não sendo observada diferenças significativas entre as concentrações de radônio reportadas nos programas de monitoramento ambiental pré-operacional (valores de background) e operacional. Os valores médios de taxa de kerma no ar no entorno da URA foram de 0,136 μGy h-1. No entanto, em todos os pontos de monitoramento, os valores reportados no programa operacional foram inferiores aos valores reportados no programa pré-operacional (background), o que sugere problemas de medidas ou de coleta de dados durante a realização deste programa. O operador da URA utilizou para avaliação de impacto radiológico atmosférico, resultados apresentados em seus relatórios finais de análise de segurança (RFAS), um modelo próprio de simulação de dispersão, denominado Impacto Ambiental Radiológico (IAR7). Uma comparação entre o MILDOS-AREA e o IAR7, utilizando os mesmos parâmetros de entrada reportados no RFAS sugere que o IAR7 subestimou as concentrações de radônio no ar para os grupos críticos hipotéticos. Os resultados de simulação com o MILDOS-AREA mostram que as doses efetivas estimadas para os grupos críticos hipotéticos são inferiores a 0,3 mSv.ano-1 que é a restrição de dose estabelecida pela Comissão Nacional de Energia Nuclear. Recomenda-se que o código MILDOS-AREA seja utilizado no Brasil, para fins de licenciamento e controle, tendo em vista que o mesmo é um código validado e já utilizado em outros países para avaliar impacto radiológico ambiental atmosférico em instalações de mineração e beneficiamento de urânio
Resumo:
A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.
Resumo:
Os crescentes alertas sobre as mudanças climáticas e suas consequências vêm preocupando a sociedade de modo geral. Geram dúvidas sobre as reais modificações que podem ser ocasionadas, principalmente com relação aos efeitos da elevação do nível médio dos oceanos e seus efeitos nas regiões costeiras. Por vezes, as informações veiculadas contribuem para uma percepção limitada da extensão espaço-temporal dos fenômenos. Em paralelo, a democratização de mapas 2D e 3D está cada vez mais ampla, não sendo mais uma ferramenta direcionada apenas aos profissionais ligados à área da Cartografia e demais Geociências. Este é um dos enormes benefícios proporcionados pela Cartografia Digital. Porém, não teria tanto alcance sem a associação das informações a um poderoso veículo de divulgação como a Web. A Internet é um dos meios de comunicação mais democráticos do mundo e uma ferramenta de grande alcance na sociedade. O uso dessas ferramentas pode ser ainda mais explorado para a construção do conhecimento, permitindo aos cidadãos entenderem mais facilmente um determinado fenômeno por meio da sua visualização/simulação em tempo real. Isto melhora a formação de opinião e o posicionamento da sociedade sobre o caso em questão. Com base nessa argumentação, esta dissertação tem o objetivo de simular cenários de elevações do nível médio do mar e disponibilizá-los em formato de mapas interativos na Web utilizando um Modelo Digital de Elevação suficientemente acurado. Para isto, a área de estudo escolhida foi a Praia do Leme, situada no município do Rio de Janeiro, RJ. Os processos para atingir os objetivos envolveram etapas de coleta de dados de campo, confecção de um banco de dados integrado a dados pré-existentes, interpolações, simulação de cenários da elevação do nível do mar e implementação de uma página Web. Os cenários investigados foram obtidos por simulações de elevações do nível do mar a cada 0,5m até 4,0m acima da cota atual. Os resultados obtidos mostram que a Praia do Leme sofrerá modificações geomorfológicas, com perda de até 18,0m da praia, para uma elevação do nível médio do mar de 2,0m. Entretanto, a orla litorânea sofrerá impactos significativos a partir de uma elevação do nível do mar de 3,0m, em que o avanço planimétrico do mar pode ficar entre 76 e 90m, o que atingiria o calçadão e a região do emissário de águas pluviais do Leme, respectivamente. Isto resultaria em um volume adicional de água na praia de, aproximadamente, 106.000m3 e uma perda de até 41.400m3 de areia. Somente a partir de 3,5m de elevação, o mar atingiria a Avenida Atlântica, sendo que, desta altitude em diante, todo o bairro do Leme seria gradualmente inundado pelo avanço do mar.