101 resultados para latifúndio por exploração
Resumo:
O crescente aumento do consumo energético das sociedades desenvolvidas e emergentes, motivado pelo progresso económico e social, tem induzido a procura de alternativas focalizadas nas energias renováveis, que possam contribuir para assegurar o fornecimento de energia sem agravar o consumo de combustíveis fósseis e a emissão de gases com efeito de estufa. Nesse sentido, a produção de energia eléctrica a partir do gás metano resultante da estabilização anaeróbia de efluentes tem vindo a ser estudada e praticada desde finais do século XIX, tendo assumido maior expressão a partir dos anos 70 do século XX, na sequência das primeiras crises petrolíferas. As instalações agropecuárias reúnem dois fatores chave para o sucesso do aproveitamento energético do biogás produzido no tratamento dos efluentes: por um lado, produzem matéria-prima com potencial energético – dejeto animal com um potencial enorme de criação de biogás quando procedido de tratamento anaeróbio - e, por outro, necessitam de energia eléctrica para o funcionamento dos equipamentos electromecânicos e de calor para a manutenção das instalações. A valorização energética do biogás produzido na estabilização anaeróbia dos efluentes agro-pecuários, para além de permitir obter um retorno financeiro, que contribui para o equilíbrio dos custos de investimento e de exploração, contribui igualmente para a redução das emissões de gases com efeito de estufa, como o dióxido de carbono e o metano, e para a segurança de abastecimento energético à instalação, na medida em que assegura a alimentação de energia eléctrica em caso de falha no fornecimento pela rede nacional. A presente dissertação apresenta um contributo para estudos a desenvolver por proprietários de agropecuárias, cooperativas regionais do setor da agropecuária, empresas de projecto e estudantes de Engenharia, constituído por uma compilação da informação mais relevante associada à estabilização anaeróbia de efluentes e à valorização energética do biogás produzido. Com base em informação referente ao número real de animais existentes em Portugal, este trabalho pretende fazer ver a essas entidades que o aproveitamento energético do biogás é viável e útil para o país. Com a criação de uma aplicação informática de análise económica de investimento, provar que o investimento em pequenas propriedades, com apenas 80 cabeças normais, pode obter um retorno financeiro razoável, com um prazo de recuperação do investimento bastante baixo, aproveitando um recurso que caso contrário será desperdiçado e poluirá o ambiente.
Resumo:
O presente trabalho propôs uma investigação qualitativa e exploratória, com o objetivo de identificar os fatores que influenciam o intraempreendedorismo no profissional de secretariado, dentro de uma organização e enquanto exerce a sua atividade. Este trabalho iniciou-se com o estudo do empreendedorismo e focou-se no intraempreendedorismo, consistindo na exploração deste conceito – fundamentação teórica. Posteriormente, foram desenvolvidas entrevistas semiestruturadas a oito secretárias de diversas empresas – investigação empírica. Através destas etapas, foi possível estudar os fatores do intraempreendedorismo da literatura, nomeadamente: a) os traços pessoais (personalidade pró-ativa, necessidade de realização, controlo e autoeficácia); b) a demografia (idade); c) as capacidades cognitivas (nível de escolaridade e experiência na área); d) o design do trabalho (tipo, autonomia, variedade e contactos com o exterior) e e) o contexto do trabalho (prémios, recursos, liderança e clima de trabalho) aplicados a este contexto específico. Neste grupo de profissionais verificou-se que determinados fatores parecem ter mais peso do que outros, dependendo de cada situação. Os traços pessoais, o design e o contexto do trabalho apontaram ter maior influência no desenvolvimento de comportamentos intraempreendedores das secretárias. Esta investigação contribuiu para o estudo da profissão, demonstrando que esta pode atuar de uma forma empreendedora.
Resumo:
Este estudo tem como objetivo principal analisar a oferta formativa a nível dos cursos profissionais e a sua adequação ao mercado de trabalho. Nesse sentido, analisou-se a evolução do ensino profissional em Portugal, nomeadamente em escolas públicas. A abertura das escolas secundárias da rede pública à educação e formação profissional tornou-se um facto incontornável, com a última revisão curricular do ensino secundário a permitir um arrojado salto no desenvolvimento, ao qual não é alheia a sua crescente valorização e consolidação no contexto da ação educativa. As sucessivas reformas do Ensino Secundário, também foram objeto de exploração deste trabalho. Ao longo das décadas, repercutiram-se várias reformas das políticas educativas que, entretanto, culminando na Reforma do Ensino Secundário, em 2004, assumiram a importância do ensino profissionalmente qualificante, com uma expressão no sistema educativo mais intensa que nunca. Neste estudo participaram alunos de um curso profissional, a Coordenadora do Agrupamento de Escolas e a Coordenadora da Associação Empresarial inquiridos sobre as representações que fazem sobre a oferta formativa disponibilizada e a da sua adequação ao mercado empresarial. O presente estudo permitiu perceber que a Escola não possui uma relação objetiva com o mercado empresarial, mas que os alunos têm vontade de se integrar numa empresa da sua região. O resultado do estudo aponta para a existência de uma oferta formativa que não parece estar adequada às necessidades do mercado de trabalho local.
Resumo:
Atualmente, o contexto de atuação das empresas tem sido cada vez mais desafiante dado o binómio de competitividade e crise financeira. Desta forma, a exploração de novas soluções e identificação de lacunas ou desequilíbrios no mercado torna-se imperial para o desenvolvimento das novas entidades. É com base nesta premissa que emerge o conceito de Start-Up, sendo o seu propósito o desenvolvimento de novos produtos e modelos de negócios inovadores. Como resultado, estas empresas tornam-se num elemento revitalizador do tecido económico dos países em que estão inseridas. De forma a possibilitar a potenciação das atividades desenvolvidas por estas entidades é crucial a identificação das diversas fontes de recursos financeiros e as consequentes contrapartidas exigidas. No entanto, dado o seu caráter inovador obviamente que vários são os riscos lhes estão associados, pelo que estas empresas deparam-se com mais dificuldades no momento de acesso aos recursos financeiros que pretendem. Desta forma, a presente dissertação analisa as tendências de financiamento das Start-Up tendo como motivação o facto desta temática ainda não se encontrar devidamente explorada e dado o desconhecimento desta realidade em Portugal. Neste sentido, e aliando a problemática existente com a motivação para a concretização da presente dissertação foram realizados um conjunto de inquéritos os quais foram aliados com o desenvolvimento de modelos empíricos multivariados aplicados aos dados seccionais e em painel. Os resultados alcançados com a investigação empírica permitiram concluir a influência de um conjunto de variáveis bem como justificar a orientação e estrutura de financiamento das Start-Up portuguesas. Das variáveis investigadas de ressalvar a influência significativa da Dimensão da Empresa, Estrutura de Ativos e Forma Legal no financiamento das Start-Up nacionais.
Resumo:
Os Sistemas de Gestão Técnica Centralizada (SGTC) assumem-se como essenciais nos grandes edifícios, já que permitem monitorizar, controlar, comandar e gerir, de forma facilitada, integrada e otimizada, as várias instalações existentes no edifício. O estado da arte de um SGTC baseia-se numa arquitetura distribuída, com recurso a Quadros de Gestão Técnica (QGT) que incluem Automation Servers - equipamentos nativos nos protocolos de comunicação mais comummente utilizados neste âmbito, incorporadores de funcionalidades e programações pré-definidas, e que ficarão responsáveis por integrar na sua área de influência, um conjunto de pontos de SGTC, definidos em projeto. Numa nova filosofia de instalação, integração e comunicação facilitada entre dispositivos que nos quadros elétricos geram dados relevantes para o utilizador e desencadeiam ações úteis na gestão de uma instalação, surge o novo conceito no mercado de Smart Panels, da Schneider Electric. Este sistema baseia-se numa ampla e diversa gama de possibilidades de medição e monitorização energética e da própria aparelhagem, com um sistema de comunicação com o sistema de gestão e controlo da instalação integrado no próprio quadro, dispensando assim a necessidade de um sistema externo (QGT), de recolha, comunicação e processamento de informação. Após o estudo descritivo teórico dos vários tópicos, questões e considerações relacionadas com os SGTC, os Smart Panels e a sua integração, o projeto e estudo comparativo do SGTC sem e com a integração de Smart Panels num grande centro comercial, permitiu concluir que a integração de Smart Panels num SGTC pode conferir vantagens no que diz respeito à implificação do projeto, da instalação, do comissionamento, programação, e da própria exploração da instalação elétrica, traduzindo-se numa redução dos custos normalmente elevados inerentes à mão de obra associada a todos estes processos.
Resumo:
Os jovens ao longo do seu percurso escolar têm aspirações e expetativas elevadas quanto ao valor de empregabilidade dos diplomas a que tiveram acesso em todos os graus de ensino. Contudo, no recente contexto de crise económica, essas aspirações e expetativas socialmente nutridas pela escola e pela família têm sido em grande medida frustradas pelas crescentes dificuldades que os jovens portugueses de hoje têm vivido nos seus processos de inserção profissional. A nível individual, um jovem que passe um longo período inativo tem grandes probabilidades de sofrer de baixa autoestima, exclusão social ou de um “wage scar”, isto é, de no futuro ter um rendimento abaixo do rendimento médio de pessoas com formação e experiência equivalentes além de desenvolverem uma atitude passiva e falta de participação social, o que no longo prazo acaba por ter implicações negativas para a sociedade como um todo. Conscientes desta realidade e sabendo que as incubadoras de negócios podem transmitir confiança à comunidade financeira e apoiar as startups, promovendo uma cultura de empreendedorismo e agindo como um catalisador para o desenvolvimento de estruturas de suporte de negócios mais amplas, partimos para o estudo da incubação de negócios com o intuito de traçar um plano estratégico para a Escola Superior de Estudos Industriais e de Gestão (ESEIG) que permitisse desenvolver a cultura empreendedora da sua comunidade e por esta via dar o seu contributo para a resolução da crise económica que o país atravessa. Começamos por fazer um enquadramento teórico da incubação de negócios e rapidamente percebemos que, sendo a ESEIG uma instituição de ensino superior, era importante incluir no estudo os conceitos de empreendedorismo e inovação e perceber ao nível teórico como funciona a relação Universidade-Empresa. De seguida, fomos para o “terreno” e percebemos que a solução para este desafio passaria por capacitar os alunos da ESEIG com as competências empresariais e empreendedoras necessárias para o desenvolvimento de qualquer empreendimento autonomamente. Faltava agora perceber qual a melhor forma de concretizar este ambicioso objetivo. Após um pouco mais de estudo, percebemos que, a paixão está no centro de empreendedorismo juntamente com outras dimensões afetivas e emocionais e pode estimular a criatividade e o reconhecimento de novos padrões de informação fundamental para a descoberta e exploração de oportunidades promissoras. Por sua vez, a alegria local (escolas, cidades, regiões, países) está associada a uma maior atividade empreendedora, o humor e sentimentos positivos, bem como a satisfação de vida geram efeitos benéficos, como melhor desempenho nas tarefas e produtividade, evolução na carreira e sucesso pessoal e maior propensão para assumir riscos. Percebemos então que é necessário desenvolver uma cultura de positividade, pelo que, sugerimos a implementação do novo quadro conceptual PROSPER (Positivity; Relationships; Outcomes; Strengths; Purpose; Engagement; Resilience) que tem o potencial de ser usado como uma ferramenta organizacional para a implementação dos sete principais componentes de bem-estar. Cientes de que o objetivo final é aumentar a intenção empreendedora dos estudantes, bem como o número efetivo de empreendedores, definimos como objetivos, promover o valor do empreendedorismo na criação de oportunidades e no desenvolvimento das competências dos estudantes (Engaging), fornecer aos estudantes oportunidades de aprendizagem empresarial (Empowering) e apoiar os estudantes na criação e no desenvolvimento de negócios (Equipping). Neste sentido, sugerimos diversas ações que materializam estes objetivos. Para finalizar, utilizamos um Lean Canvas com o intuito de concretizar a nossa proposta estratégica para ESEIG, que culmina com a criação do Empowering Lab ESEIG.
Resumo:
Com a alteração da legislação energética em Portugal, nomeadamente a implementação da legislação de Micro e Minigeração, a produção distribuída cresceu de forma exponencial na rede elétrica nacional, diminuindo por um lado as perdas no transporte e distribuição, e por outro aumentando a complexidade na gestão do trânsito de potência ao Distribuidor. No entanto a motivação desta dissertação prende-se com o facto de que as centrais de produção distribuída, em particular as de tecnologia fotovoltaica, pela sua dimensão, serem instaladas nos pontos de consumo, em paralelo com a instalação elétrica de utilização do cliente e como tal, têm sido verificadas diversas anomalias no funcionamento e exploração das mesmas, por influência da má qualidade de energia resultante das más condições de funcionamento e exploração em que se encontram as instalações de consumo. A presente dissertação pretende apresentar uma descrição das anomalias mais frequentes verificadas nas centrais fotovoltaicas de minigeração com origem na qualidade da energia que transita das instalações elétricas de consumo ligadas ao mesmo ponto de interligação com a rede elétrica nacional. Como base de fundamento, foram demonstradas através de três casos práticos reais, algumas das mais frequentes e prejudiciais anomalias descritas na presente dissertação. Foram escolhidos 3 casos reais com diferentes tipos de instalação de consumo sendo que um deles não apresenta qualquer anomalia de forma a comprovar o bom funcionamento em condições normais de ambas as instalações. Foram encontradas e demonstradas várias soluções paras os diferentes tipos de anomalias, no entanto esta dissertação vai permitir não só a resolução deste tipo de anomalias em centrais fotovoltaicas em exploração e já com prejuízos avultados mas também introduzir em futuras instalações a análise da qualidade da energia nas instalações de consumo em fase preliminar de estudo de implementação de centrais fotovoltaicas de minigeração e de autoconsumo, precavendo futuros problemas de rentabilidade técnico-económica. Este estudo, irá certamente servir de motor de impulsão para a preocupação com a Qualidade da Energia essencialmente dentro das instalações elétricas de consumo sensibilizando os seus gestores energéticos. Poderá ainda impulsionar a reformulação do Regulamento de Qualidade de Serviço para exigências ainda mais apertadas de forma a incorporar algumas das anomalias aqui descritas, sendo por isso um elemento de alerta para todos os “Players” do Sistema Elétrico Nacional tendo como limite a melhoria continua da Segurança e da Qualidade da energia na rede elétrica beneficiando da sensibilização de todos os intervenientes.
Resumo:
Os sistemas de monitorização de estruturas fornecem diversas vantagens, não só no que diz respeito à durabilidade da obra, ao aumento da segurança e do conhecimento relativamente ao comportamento das estruturas ao longo do tempo, à otimização do aspeto estrutural, bem como aos aspetos económicos do processo de construção e manutenção. A monitorização deve realizar-se durante a fase de construção e/ou de exploração da obra para permitir o registo integral do seu comportamento no meio externo. Deve efetuar-se de forma contínua e automática, executando intervenções de rotina para que se possa detetar precocemente sinais de alterações, respetivamente à segurança, integridade e desempenho funcional. Assim se poderá manter a estrutura dentro de parâmetros aceitáveis de segurança. Assim, na presente dissertação será concebido um demonstrador experimental, para ser estudado em laboratório, no qual será implementado um sistema de monitorização contínuo e automático. Sobre este demonstrador será feita uma análise de diferentes grandezas em medição, tais como: deslocamentos, extensões, temperatura, rotações e acelerações. Com carácter inovador, pretende-se ainda incluir neste modelo em sintonia de medição de coordenadas GNSS com o qual se torna possível medir deslocamentos absolutos. Os resultados experimentais alcançados serão analisados e comparados com modelos numéricos. Conferem-se os resultados experimentais de natureza estática e dinâmica, com os resultados numéricos de dois modelos de elementos finitos: um de barras e outro de casca. Realizaram-se diferentes abordagens tendo em conta as características identificadas por via experimental e calculadas nos modelos numéricos para melhor ajuste e calibração dos modelos numéricos Por fim, recorre-se a algoritmos de processamento e tratamento do respetivo sinal com aplicação de filtros, que revelam melhorar com rigor o sinal, de forma a potenciar as técnicas de fusão multisensor. Pretende-se integrar o sinal GNSS com os demais sensores presentes no sistema de monitorização. As técnicas de fusão multisensor visam melhor o desempenho deste potencial sistema de medição, demonstrando as suas valências no domínio da monitorização estrutural.
Resumo:
Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
Com o aumento de plataformas móveis disponíveis no mercado e com o constante incremento na sua capacidade computacional, a possibilidade de executar aplicações e em especial jogos com elevados requisitos de desempenho aumentou consideravelmente. O mercado dos videojogos tem assim um cada vez maior número de potenciais clientes. Em especial, o mercado de jogos massive multiplayer online (MMO) tem-se tornado muito atractivo para as empresas de desenvolvimento de jogos. Estes jogos suportam uma elevada quantidade de jogadores em simultâneo que podem estar a executar o jogo em diferentes plataformas e distribuídos por um "mundo" de jogo extenso. Para incentivar a exploração desse "mundo", distribuem-se de forma inteligente pontos de interesse que podem ser explorados pelo jogador. Esta abordagem leva a um esforço substancial no planeamento e construção desses mundos, gastando tempo e recursos durante a fase de desenvolvimento. Isto representa um problema para as empresas de desenvolvimento de jogos, e em alguns casos, e impraticável suportar tais custos para equipas indie. Nesta tese e apresentada uma abordagem para a criação de mundos para jogos MMO. Estudam-se vários jogos MMO que são casos de sucesso de modo a identificar propriedades comuns nos seus mundos. O objectivo e criar uma framework flexível capaz de gerar mundos com estruturas que respeitam conjuntos de regras definidas por game designers. Para que seja possível usar a abordagem aqui apresentada em v arias aplicações diferentes, foram desenvolvidos dois módulos principais. O primeiro, chamado rule-based-map-generator, contem a lógica e operações necessárias para a criação de mundos. O segundo, chamado blocker, e um wrapper à volta do módulo rule-based-map-generator que gere as comunicações entre servidor e clientes. De uma forma resumida, o objectivo geral e disponibilizar uma framework para facilitar a geração de mundos para jogos MMO, o que normalmente e um processo bastante demorado e aumenta significativamente o custo de produção, através de uma abordagem semi-automática combinando os benefícios de procedural content generation (PCG) com conteúdo gráfico gerado manualmente.