98 resultados para Gerenciamento da informação - modelos
Resumo:
O uso de modelos de estudo dentários faz parte tanto da prática quanto da pesquisa odontológica e ortodôntica. Com a introdução dos scanners 3D e dos tomógrafos CBCT (cone beam computer tomography) tornou-se possível a obtenção de modelos dentários tridimensionais virtuais das arcadas dentárias. Foram selecionados 56 modelos dentários superiores e escaneados em três tipos diferentes de scanners: Maestro 3D Dental Scanner (AGE Solutions, Potedera, Italia), 3Shape R700 3D Scanner (3Shape, Copenhagen, Dinamarca) e o scanner 3Shape TRIOS (3Shape, Copenhagen, Dinamarca). Doze medidas foram realizadas nos modelos dentários de gesso e comparadas com as mesmas medidas realizadas nos modelos dentários digitais por meio do teste de Análise de Variância (ANOVA). Estatisticamente não foram encontradas diferenças significativas entre as medições tradicionais nos modelos dentários de gesso e as medidas realizadas nos modelos dentários digitais. Os três tipos de métodos de aquisição de modelos dentários digitais foram considerados confiáveis para as medições horizontais, transversais e verticais. Os modelos dentários virtuais podem ser indicados como substitutos dos modelos dentários de gesso.
Resumo:
O objetivo deste trabalho é trazer à discussão o modo quase hegemônico como o homem na modernidade, lançando mão dos inúmeros avanços tecnológicos conquistados pela ciência, lida com o anúncio da morte, de modo a adiá-la a qualquer preço, sob a máxima de que a vida deve ser prolongada, mesmo à custa de todo e qualquer sofrimento. Heidegger, em sua obra Ser e Tempo, esclarece o modo como o homem na cotidianidade mediana lida com a morte. O homem se movimenta na nossa época, denominada por Heidegger de era da técnica, era esta em que, segundo o filósofo, o mundo é desvelado como fundo de reservas por meio da máxima do controle dos entes e da existência. A morte, tal como compreendida na cotidianidade mediana, passa a ser um fenômeno passível de adiamento, sobre o qual podemos ter controle e que, ao modo impessoal, encontra-se sempre referida à morte do outro. Ao tomar o fenômeno da morte ao modo do impessoal, Heidegger acena que acabamos por obscurecer aquilo que lhe é mais próprio, ou seja, seu caráter irremissível, certo, indeterminado e insuperável. Buscaremos a concepção do autor sobre a morte como indissociável da existência e discutiremos como, na maioria das vezes, o homem movimenta-se no horizonte da técnica em meio à impessoalidade, lidando com a morte de modo impróprio e encobrindo essa possibilidade. Para tanto, iremos apresentar como a lida com a morte, na modernidade, encontra-se mediada pelos saberes especializados, a partir dos quais se procura combater, gerenciar e controlar este fenômeno. Apontaremos alguns dilemas que confrontaram a medicina e a sociedade diante dessa tentativa e buscaremos compreender como estes saberes foram construídos historicamente. Para desvelar outras possibilidades de lida com a morte, buscaremos na Grécia antiga, através da análise de mitos, o modo como o grego do ciclo épico lidava com este fenômeno. Retornando ao homem grego do ciclo épico, mostraremos que as verdades sobre a lida com a morte, que se estabeleceram como absolutas no mundo atual, podem ser colocadas em questão e apontaremos a pertinência de pensarmos a morte para além da lógica de modelos atuais que buscam gerenciar este fenômeno. Recorreremos, finalmente, ao texto Serenidade, de Heidegger, para examinar o pensamento do homem moderno e refletir sobre as suas incessantes investidas na busca pelo controle e pelo gerenciamento da morte. Através do pensamento reflexivo, proposto pelo autor, acreditamos que se desvelam outras possibilidades de lida com a morte, antes obscurecidas por verdades tomadas como absolutas, e, deste modo, torna-se possível conquistar uma relação mais livre com este fenômeno
Resumo:
A presente Tese de Doutorado analisa as características e os efeitos da cientometria e bibliometria adotadas no Brasil. Primeiramente, a fim de contextualizar o tema, faço uma revisão de literatura acerca do processo de mercantilização da educação. Meu objetivo é mostrar a inclinação empresarial das políticas públicas educacionais, especialmente aquelas voltadas para a pós-graduação. Além disso, seleciono e analiso alguns conceitos que ajudam a compreender o presente tema, bem como sustento a inadequação da lógica de economia de mercado como forma de gerir a Academia e a ciência. Na segunda parte da Tese, focalizo os critérios adotados para avaliar a hierarquizar Programas de Pós-Graduação e diferenciar pesquisadores. A tese a ser defendida é que o modelo CAPES de avaliação da pós-graduação está baseado numa norma produtividade de cunho periodicocrático que cria uma forte pressão por publicação de artigos em periódicos acadêmico-científicos, uma vez que eles os produtos privilegiados no modelo de mensuração objetivista em vigor. Produzir/publicar artigos torna-se, portanto, a performance acadêmico-científica por excelência. Isso enseja a criação de um mercado acadêmico-científico e de um mercado de publicações, o que cria um contexto propício para a ocorrência de más condutas acadêmico-científicas
Resumo:
Trata da apresentação e discussão de um modelo de previsão de demanda de médicos para atendimentos de pacientes internados pelo SUS, com estudo de caso para o Estado do Rio de Janeiro. O modelo é baseado nos dados do Sistema de Informações Hospitalares do SUS (SIH/SUS) e nas alterações esperadas de tamanho e composição da população, segundo o IBGE. Descreve a trajetória e a motivação que levaram à construção do modelo, a partir da ideia de maior utilização do enorme potencial das bases de dados brasileiras para o planeamento e gestão dos RHS. Faz também comentários sobre conceitos da Tecnologia da Informação, que são de interesse para uma melhor compreensão das bases de dados, incluindo a utilização de padrões. Apresenta e comenta os resultados da aplicação do modelo, para o período de 2002 a 2022, para o Estado do Rio de Janeiro. Propõe sugestões de pesquisas com objetivo de melhorar a integração entre as bases de dados estudadas, a discussão da construção e utilização de indicadores, assim como uma proposta de evolução para o apoio à decisão na área de RHS.
Resumo:
Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados com o objetivo de reduzir a necessidade de energia de um sistema, sendo largamente usada nas indústrias de processos. Entretanto, uma rede está sujeita à deposição, a qual causa um decréscimo na efetividade térmica dos trocadores. Este fenômeno é provocado pelo acúmulo de materiais indesejáveis sobre a superfície de troca térmica. Para compensar a redução de efetividade térmica causada pela deposição, torna-se necessário um aumento no consumo de utilidades. Isto eleva os custos de operação, assim como os custos de manutenção. Estima-se que os custos associados à deposição atinjam bilhões de dólares anualmente. Em face a este problema, vários trabalhos de pesquisa têm investigado métodos para prevenir a deposição e/ou gerenciar as operações em uma rede. Estudos envolvem desde a otimização de trocadores de calor individuais, simulação e monitoramento de redes, até a otimização da programação das paradas para limpeza de trocadores de calor em uma rede. O presente trabalho apresenta a proposição de um modelo para simulação de redes de trocadores de calor com aplicações no gerenciamento da deposição. Como conseqüência, foi desenvolvido um conjunto de códigos computacionais integrados, envolvendo a simulação estacionária de redes, a simulação pseudo-estacionária do comportamento de redes em relação à evolução da deposição, a estimação de parâmetros para diagnóstico do problema da deposição e a otimização operacional deste tipo de sistema. Com relação ao simulador estacionário, o modelo da rede foi formulado matricialmente e os balanços de massa e energia são resolvidos como sistemas de equações lineares. Do ponto de vista da otimização, o procedimento proposto redistribui as vazões, visando um melhor aproveitamento térmico dos trocadores da rede, como, por exemplo, buscando as vazões da rede que maximizem a temperatura da corrente de entrada no forno em unidades de destilação atmosférica de óleo cru. Os algoritmos foram implementados em alguns exemplos da literatura e em um problema de uma refinaria real. Os resultados foram promissores, o que sugere que a proposta deste trabalho pode vir a ser uma abordagem interessante para operações envolvendo redes de trocadores de calor
Resumo:
As estatinas são fármacos inibidores competitivos da enzima hidroxi-3-metil-glutaril Coenzima A (HMGCoA) redutase, amplamente utilizados para o controle da hipercolesterolemia total e, em especial, para a redução dos níveis séricos de LDLc (Low Density Lipoprotein cholesterol). Além do efeito primário, esses fármacos apresentam vários efeitos secundários, chamados de efeitos pleiotrópicos, envolvendo atividade anti-inflamatória, antitumoral e antiparasitária. Para o desenvolvimento de inovações na área de química medicinal é imprescindível avaliar o risco de efeitos adversos para saúde ou, em outras palavras, a segurança terapêutica do novo produto nas condições propostas de uso. Nesse sentido, o objetivo desse trabalho foi investigar a genotoxicidade de quatro análogos inibidores da biossíntese de lipídios, da classe das estatinas, em modelos experimentais in vitro, testados previamente contra o clone W2 de Plasmodium falciparum a fim de se obter o IC50 dessas moléculas frente ao patógeno. Foram desenvolvidas quatro novas moléculas (PCSR02.001, PCSR09.001, PCSR08.002 e PCSR10.002). Para a avaliação da toxicidade, foram realizados o teste de mutagenicidade bacteriana (teste de Ames), o ensaio de viabilidade celular utilizando o reagente WST-1 e o ensaio de indução de micronúcleos, ambos utilizando uma linhagem ovariana (CHO-K1) e uma linhagem hepática (HepG2). Levando em conta o fato de nenhuma das amostras ter induzido efeitos mutagênicos nas linhagens de S. enterica sorovar Typhimurium, e PCSR10.002 ter apresentado citotoxicidade sugere-se então que este composto seja o mais tóxico. Comparativamente, PCSR10.002 foi mais genotóxico e citotóxico para a linhagem CHO-K1 do que para a linhagem HepG2. PCSR02.001 apresentou elevado potencial genotóxico para células ovarianas, mas não foi capaz de induzir a formação de micronúcleos em células hepáticas, apresentando, portanto um perfil similar ao observado em PCSR10.002. Assim como a atorvastatina, PCSR09.001 apresentou elevado potencial pró-apoptótico para a linhagem de hepatócitos. Já PCSR08.002, apresentou aumento na apoptose de CHO-K1. A indução de apoptose não é necessariamente um evento negativo, já que é pouco lesiva e responsável pela eliminação de células danificadas. Porém, as respostas de apoptose induzidas por esse composto foram muito inferiores àquelas induzidas pela atorvastatina (cerca de 4 vezes menor que a atorvastatina). PCSR08.002 foi aquele se mostrou menos tóxico e essa amostra foi a que teve menor risco relativo, em uma análise global das respostas de citotoxicidade e não demonstrou ter potencial genotóxico para as linhagens utilizadas nesse estudo. Conclui-se, portanto, que a análise da atividade toxicológica utilizando modelos experimentais in vitro dessas estatinas constitui um importante passo para o estabelecimento de novos candidatos à fármacos com maior segurança.
Resumo:
O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.
Resumo:
O estudo da dinâmica dos parâmetros físicos, químicos e biológicos da água em lagoas costeiras é essencial para entender o funcionamento destes ecossistemas; o que por sua vez permite o desenvolvimento de estratégias adequadas de gerenciamento e conservação de seus recursos. Neste estudo, analisou-se a qualidade da água da Lagoa Rodrigo de Freitas (Rio de Janeiro/RJ) e dos seus principais tributários. Foram utilizados os dados oriundos do projeto de monitoramento da qualidade da água realizado pela SMAC/RJ, entre dezembro de 2011 e dezembro de 2012. O objetivo precípuo foi compreender a dinâmica espacial e temporal da variação do estado trófico e da qualidade da água, assim como avaliar a exequibilidade e aplicabilidade de índices multimétricos (IQA, IET, ICE, IC, TRIX) ao projeto de monitoramento ambiental da LRF. Para tanto, foram realizadas coletas mensais e semanais da água superficial em cinco pontos amostrais, na LRF, e cinco pontos nos rios/canais. Em seguida, análises físico-químicas e biológicas foram realizadas. Os resultados obtidos mostraram relativa homogeneidade espacial e elevada variação sazonal da qualidade da água superficial. Os índices aplicados aos dados indicaram uma variação temporal representativa do estado trófico e da qualidade da água, sendo as classificações para os rios e canais diferentes às verificadas na LRF. Esta apresentou variação entre supereutrófica e hipereutrófica, já os primeiros foram mesotróficos. A qualidade da água da LRF apresentou majoritariamente entre moderada a boa. Os rios e canais foram classificados ruins e médios. Concluiu-se que diferentes modelos podem resultar em diferentes classificações de níveis de trofia e qualidade da água. Análises estatísticas de tendência indicaram estabilidade da qualidade da água, sem uma projeção representativa de melhoria da qualidade hídrica. Já análises multivariadas (RDA, PCA BEST, SIMPER, ANOSIM, MDS e CLUSTER) mostraram um elevado dinamismo da comunidade fitoplanctônica com nítida resposta às oscilações de variáveis físico-químicas específicas, apesar da dominância recorrente por cianobactérias.
Resumo:
Analisou-se na tese o deslizamento discursivo em direção ao uso do vocábulo gestão e as mudanças recentemente operadas no trabalho gerencial. Com a suposição de que se apreciado enquanto atividade humana este trabalho não é simples e exclusivamente heterodeterminado pelo modelo de gerenciamento segundo os interesses do capital, a proposta foi colocar ênfase nos debates de normas e nas possíveis reservas de alternativas nas atividades de profissionais que gerenciam, assim como nas possibilidades de seu desenvolvimento em direção a um gerenciamento ergológico. Visando a contribuir para a discussão sobre se no interior da própria produção material poderiam coexistir formas de construção de uma sociabilidade efetivamente humana, analisa-se em que medida os profissionais que gerenciam fazem cotidianamente uma gestão (não apenas do outro, também de si próprio) na qual são convocados valores outros que os exclusivamente mercantis e econômicos. Adotando-se um olhar para o objeto de pesquisa informado por uma Psicologia Social do Trabalho que privilegia o ponto de vista da atividade, se pretendeu a uma sucessiva aproximação das atividades de supervisão do trabalho. Trabalho este que, em tendência, tem se ampliado no sentido de incluir o gerenciamento da produção, de aproximação com os serviços de apoio à produção e de incentivo à participação dos operadores. A pesquisa de campo foi realizada em uma unidade industrial de uma empresa multinacional privada que fabrica e comercializa produtos pneumáticos. No delineamento metodológico privilegiou-se um enquadramento clínico por meio de método indireto de investigação, com base no princípio de (auto)confrontação, e de uma abordagem dialógica de análise, fazendo-se uso do dispositivo de Encontros sobre o Trabalho e da técnica de Instrução ao Sósia. Os resultados indicam que o trabalho de supervisão envolve uma integração de múltiplas determinações, exigências e valores. Ressalta-se a existência de dimensões sociais no trabalho gerencial efetuado pelos supervisores. No processo de análise de suas atividades de trabalho, realizada por eles próprios, apontam-se indícios de que, mobilizando-se intelectual, cognitiva, afetiva e corporalmente nos debates de normas em suas atividades, buscam por meio de renormatizações também fazer valer suas próprias normas de vida, onde valores relativos ao viver em conjunto e à saúde estão presentes. Colocando-se em questão as condições para o pôr o trabalho em debate na perspectiva da atividade, discute-se a relação entre o potencial de produção de novas normas nas atividades de supervisão e o suposto de um modo ergológico de gerenciar, reforçando-se a posição de que as propostas de gestão participativa não se apresentam por si só como uma abertura para um modo de gerenciamento que dê visibilidade à gestão cotidiana do trabalho, que é sempre, em algum nível, formulada e operada coletivamente
Resumo:
O gerenciamento dos resíduos de construção civil configura-se ferramenta sistêmica, no qual se verifica a possibilidade do uso de um modelo de Sistema de Gerenciamento com a utilização de indicadores. O referencial teórico abordado, com conceitos e entendimentos sobre a responsabilidade socioambiental das organizações na disposição correta de seus resíduos, particularmente aqueles oriundos de construção civil como indutores e indicadores de responsabilidade social e ambiental, posicionamento estratégico e a responsabilidade socioambiental, delimitam a esfera financeira como um ativo intangível da empresa. Assim, o Balanced Scorecard, apresentado em suas quatro perspectivas: a financeira, a do cliente, a dos processos internos e a do aprendizado e crescimento, relacionam-se com a responsabilidade na gestão dos seus resíduos. Para avaliar a adequação dos indicadores e respectivas métricas, torna-se plausível a aplicação dos dez testes do Performance Prism. A gestão por indicadores é assim analisada na ótica das diferentes, porém integradas, perspectivas do Balanced Scorecard. A principal característica do modelo em estudo é a inserção da responsabilidade pelos resíduos às estratégias empresariais, conduzindo linearmente tais ações aos princípios da empresa. Os resultados apresentados após sua implementação em uma empresa de engenharia civil proporcionaram um reaproveitamento do entulho gerado da ordem de aproximados 52% como matéria-prima para agregados, comprovando a viabilidade de uso dos indicadores, integrando as ações de gerenciamento de resíduos às demais questões críticas e estratégicas da empresa.
Resumo:
O aumento da prevalência da obesidade e osteoporose, bem como a identificação de mecanismos comuns que ligam a osteogênese e a adipogênese, sugerem que a obesidade e osteoporose podem ser distúrbios relacionados, e além disso, ambos podem ter suas origens no início da vida. Em 3 modelos diferentes de plasticidade ontogenética foi observado obesidade na vida adulta. Sendo assim, o objetivo deste trabalho foi investigar o impacto desses 3 modelos, o desmame precoce mecânico (DPM) e o farmacológico (DPF), e a supernutrição neonatal (SN) no tecido ósseo da prole durante o desenvolvimento. Para tanto, 2 experimentos foram realizados. No experimento 1, ratas lactantes foram divididas em 3 grupos: controle - os filhotes tiveram livre acesso ao leite durante toda a lactação; DPM - as mães foram envolvidas com uma atadura nos últimos 3 dias de lactação; DPF - as mães foram tratadas com bromocriptina (0,5 mg/duas vezes/dia) 3 dias antes do desmame padrão. No experimento 2, o tamanho da ninhada foi reduzido para 3 filhotes machos no 3o dia de lactação até o desmame (SN); o grupo controle permaneceu com 10 filhotes durante toda a lactação. Realizou-se absorciometria de raios-x de dupla energia, tomografia computadorizada, microtomografia computadorizada, teste biomecânico e análises séricas. Os dados foram considerados significativos quando P<0,05. No experimento 1, ao desmame, os filhotes DPM e DPF apresentaram menor massa corporal, massa gorda, densidade mineral óssea total (DMO), conteúdo mineral ósseo total (CMO), área óssea e osteocalcina sérica, e maior telopeptídeo carboxi-terminal do colágeno tipo I (CTX-I). O cálcio ionizado sérico foi menor apenas na prole DPM, a 25-hidroxivitamina D (25(OH)D) foi maior e o PTH menor apenas na prole DPF. Aos 180 dias, as proles DPM e DPF apresentaram maior massa corporal, maior massa de gordura visceral, hiperleptinemia, maior 25(OH)D e menor CTX-I. Ambos os grupos apresentaram aumento da DMO total, do CMO, da DMO da coluna vertebral e da área óssea aos 150 e 180 dias de idade. Nas avaliações ósseas individuais, as proles DPM e DPF também apresentaram aumento da DMO do fêmur e da vértebra lombar, da radiodensidade da cabeça femoral e do corpo vertebral; melhora da microarquitetura trabecular óssea e da resistência óssea. No experimento 2, observamos aumento da massa corporal, da massa gorda e da massa magra, do CMO e da área óssea no grupo SN desde o desmame até a idade adulta. Aos 180 dias, a prole SN também apresentou aumento da DMO total, da DMO do fêmur e da vértebra lombar, da radiodensidade da cabeça femoral e do corpo vertebral; melhora da microarquitetura trabecular óssea e da resistência óssea, maior osteocalcina e menor CTX-I. Demonstramos que, apesar de fatores de imprinting opostos, ambos os modelos causam melhora da massa, do metabolismo, da qualidade e da resistência óssea. Porém, parece que este efeito protetor sobre o tecido ósseo não é um resultado direto da programação deste tecido, mas sim consequência das alterações fisiopatológicas da obesidade programada pelos três modelos.
Resumo:
Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.
Resumo:
A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.
Resumo:
A utilização do metano (CH4) presente no biogás gerado através da degradação anaeróbica de resíduos orgânicos depositados em aterros sanitários como fonte de energia é uma tecnologia em expansão, principalmente nos países em desenvolvimento. Para assegurar um melhor aproveitamento do CH4 e a viabilidade econômica do projeto de exploração energética é necessário que estes empreendimentos avaliem sua capacidade de produzir este gás com o passar dos anos, mesmo após o encerramento da deposição de resíduos. O potencial de geração é comumente estimado a partir de modelos cinéticos de primeira ordem propostos por conceituadas instituições, entretanto, estudos recentes apontam alto grau de incerteza e diferenças relevantes entre os resultados obtidos com cada metodologia. Este trabalho tem por objetivo analisar a variação dos resultados das estimativas de emissão de metano dos modelos recomendados pela USEPA, Banco Mundial (Scholl Canyon) e IPCC utilizando tanto dados e informações disponibilizadas do aterro sanitário Moskogen, localizado em Kalmar, Suécia, que foi operado entre 1977 e 2008. Além de estimar a capacidade de geração de CH4, objetiva-se identificar qual o modelo cujas estimativas mais se aproximam dos dados de biogás efetivamente medidos e quanto gás ainda pode ser extraído do aterro. O estudo ainda avaliou como valores diferentes para os parâmetros principais dos modelos afetam a estimativa de geração final. O modelo IPCC mostrou-se o mais confiável dentre os analisados, estimando que o aterro Moskogen produza mais de 102 milhões de m de CH4 entre 1977 e 2100, sendo 39,384 milhões passíveis de extração de 2012 a 2100. Os demais modelos apresentaram premissas inadequadas com a realidade do aterro sanitário estudado. Contudo, mesmo com a superioridade do modelo proposto pelo IPCC, maiores estudos são necessários no local, que levantem outras informações de campo como a vazão passiva de gás pela camada de cobertura do aterro e uma melhor estimativa do percentual de material orgânico biodegradável presente em cada fração de resíduos depositada em Moskogen.