1000 resultados para Exploração pecuária
Resumo:
Os jovens ao longo do seu percurso escolar têm aspirações e expetativas elevadas quanto ao valor de empregabilidade dos diplomas a que tiveram acesso em todos os graus de ensino. Contudo, no recente contexto de crise económica, essas aspirações e expetativas socialmente nutridas pela escola e pela família têm sido em grande medida frustradas pelas crescentes dificuldades que os jovens portugueses de hoje têm vivido nos seus processos de inserção profissional. A nível individual, um jovem que passe um longo período inativo tem grandes probabilidades de sofrer de baixa autoestima, exclusão social ou de um “wage scar”, isto é, de no futuro ter um rendimento abaixo do rendimento médio de pessoas com formação e experiência equivalentes além de desenvolverem uma atitude passiva e falta de participação social, o que no longo prazo acaba por ter implicações negativas para a sociedade como um todo. Conscientes desta realidade e sabendo que as incubadoras de negócios podem transmitir confiança à comunidade financeira e apoiar as startups, promovendo uma cultura de empreendedorismo e agindo como um catalisador para o desenvolvimento de estruturas de suporte de negócios mais amplas, partimos para o estudo da incubação de negócios com o intuito de traçar um plano estratégico para a Escola Superior de Estudos Industriais e de Gestão (ESEIG) que permitisse desenvolver a cultura empreendedora da sua comunidade e por esta via dar o seu contributo para a resolução da crise económica que o país atravessa. Começamos por fazer um enquadramento teórico da incubação de negócios e rapidamente percebemos que, sendo a ESEIG uma instituição de ensino superior, era importante incluir no estudo os conceitos de empreendedorismo e inovação e perceber ao nível teórico como funciona a relação Universidade-Empresa. De seguida, fomos para o “terreno” e percebemos que a solução para este desafio passaria por capacitar os alunos da ESEIG com as competências empresariais e empreendedoras necessárias para o desenvolvimento de qualquer empreendimento autonomamente. Faltava agora perceber qual a melhor forma de concretizar este ambicioso objetivo. Após um pouco mais de estudo, percebemos que, a paixão está no centro de empreendedorismo juntamente com outras dimensões afetivas e emocionais e pode estimular a criatividade e o reconhecimento de novos padrões de informação fundamental para a descoberta e exploração de oportunidades promissoras. Por sua vez, a alegria local (escolas, cidades, regiões, países) está associada a uma maior atividade empreendedora, o humor e sentimentos positivos, bem como a satisfação de vida geram efeitos benéficos, como melhor desempenho nas tarefas e produtividade, evolução na carreira e sucesso pessoal e maior propensão para assumir riscos. Percebemos então que é necessário desenvolver uma cultura de positividade, pelo que, sugerimos a implementação do novo quadro conceptual PROSPER (Positivity; Relationships; Outcomes; Strengths; Purpose; Engagement; Resilience) que tem o potencial de ser usado como uma ferramenta organizacional para a implementação dos sete principais componentes de bem-estar. Cientes de que o objetivo final é aumentar a intenção empreendedora dos estudantes, bem como o número efetivo de empreendedores, definimos como objetivos, promover o valor do empreendedorismo na criação de oportunidades e no desenvolvimento das competências dos estudantes (Engaging), fornecer aos estudantes oportunidades de aprendizagem empresarial (Empowering) e apoiar os estudantes na criação e no desenvolvimento de negócios (Equipping). Neste sentido, sugerimos diversas ações que materializam estes objetivos. Para finalizar, utilizamos um Lean Canvas com o intuito de concretizar a nossa proposta estratégica para ESEIG, que culmina com a criação do Empowering Lab ESEIG.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia do Ambiente - Perfil Engenharia Sanitária
Resumo:
Com a alteração da legislação energética em Portugal, nomeadamente a implementação da legislação de Micro e Minigeração, a produção distribuída cresceu de forma exponencial na rede elétrica nacional, diminuindo por um lado as perdas no transporte e distribuição, e por outro aumentando a complexidade na gestão do trânsito de potência ao Distribuidor. No entanto a motivação desta dissertação prende-se com o facto de que as centrais de produção distribuída, em particular as de tecnologia fotovoltaica, pela sua dimensão, serem instaladas nos pontos de consumo, em paralelo com a instalação elétrica de utilização do cliente e como tal, têm sido verificadas diversas anomalias no funcionamento e exploração das mesmas, por influência da má qualidade de energia resultante das más condições de funcionamento e exploração em que se encontram as instalações de consumo. A presente dissertação pretende apresentar uma descrição das anomalias mais frequentes verificadas nas centrais fotovoltaicas de minigeração com origem na qualidade da energia que transita das instalações elétricas de consumo ligadas ao mesmo ponto de interligação com a rede elétrica nacional. Como base de fundamento, foram demonstradas através de três casos práticos reais, algumas das mais frequentes e prejudiciais anomalias descritas na presente dissertação. Foram escolhidos 3 casos reais com diferentes tipos de instalação de consumo sendo que um deles não apresenta qualquer anomalia de forma a comprovar o bom funcionamento em condições normais de ambas as instalações. Foram encontradas e demonstradas várias soluções paras os diferentes tipos de anomalias, no entanto esta dissertação vai permitir não só a resolução deste tipo de anomalias em centrais fotovoltaicas em exploração e já com prejuízos avultados mas também introduzir em futuras instalações a análise da qualidade da energia nas instalações de consumo em fase preliminar de estudo de implementação de centrais fotovoltaicas de minigeração e de autoconsumo, precavendo futuros problemas de rentabilidade técnico-económica. Este estudo, irá certamente servir de motor de impulsão para a preocupação com a Qualidade da Energia essencialmente dentro das instalações elétricas de consumo sensibilizando os seus gestores energéticos. Poderá ainda impulsionar a reformulação do Regulamento de Qualidade de Serviço para exigências ainda mais apertadas de forma a incorporar algumas das anomalias aqui descritas, sendo por isso um elemento de alerta para todos os “Players” do Sistema Elétrico Nacional tendo como limite a melhoria continua da Segurança e da Qualidade da energia na rede elétrica beneficiando da sensibilização de todos os intervenientes.
Resumo:
Os sistemas de monitorização de estruturas fornecem diversas vantagens, não só no que diz respeito à durabilidade da obra, ao aumento da segurança e do conhecimento relativamente ao comportamento das estruturas ao longo do tempo, à otimização do aspeto estrutural, bem como aos aspetos económicos do processo de construção e manutenção. A monitorização deve realizar-se durante a fase de construção e/ou de exploração da obra para permitir o registo integral do seu comportamento no meio externo. Deve efetuar-se de forma contínua e automática, executando intervenções de rotina para que se possa detetar precocemente sinais de alterações, respetivamente à segurança, integridade e desempenho funcional. Assim se poderá manter a estrutura dentro de parâmetros aceitáveis de segurança. Assim, na presente dissertação será concebido um demonstrador experimental, para ser estudado em laboratório, no qual será implementado um sistema de monitorização contínuo e automático. Sobre este demonstrador será feita uma análise de diferentes grandezas em medição, tais como: deslocamentos, extensões, temperatura, rotações e acelerações. Com carácter inovador, pretende-se ainda incluir neste modelo em sintonia de medição de coordenadas GNSS com o qual se torna possível medir deslocamentos absolutos. Os resultados experimentais alcançados serão analisados e comparados com modelos numéricos. Conferem-se os resultados experimentais de natureza estática e dinâmica, com os resultados numéricos de dois modelos de elementos finitos: um de barras e outro de casca. Realizaram-se diferentes abordagens tendo em conta as características identificadas por via experimental e calculadas nos modelos numéricos para melhor ajuste e calibração dos modelos numéricos Por fim, recorre-se a algoritmos de processamento e tratamento do respetivo sinal com aplicação de filtros, que revelam melhorar com rigor o sinal, de forma a potenciar as técnicas de fusão multisensor. Pretende-se integrar o sinal GNSS com os demais sensores presentes no sistema de monitorização. As técnicas de fusão multisensor visam melhor o desempenho deste potencial sistema de medição, demonstrando as suas valências no domínio da monitorização estrutural.
Resumo:
Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
Com o aumento de plataformas móveis disponíveis no mercado e com o constante incremento na sua capacidade computacional, a possibilidade de executar aplicações e em especial jogos com elevados requisitos de desempenho aumentou consideravelmente. O mercado dos videojogos tem assim um cada vez maior número de potenciais clientes. Em especial, o mercado de jogos massive multiplayer online (MMO) tem-se tornado muito atractivo para as empresas de desenvolvimento de jogos. Estes jogos suportam uma elevada quantidade de jogadores em simultâneo que podem estar a executar o jogo em diferentes plataformas e distribuídos por um "mundo" de jogo extenso. Para incentivar a exploração desse "mundo", distribuem-se de forma inteligente pontos de interesse que podem ser explorados pelo jogador. Esta abordagem leva a um esforço substancial no planeamento e construção desses mundos, gastando tempo e recursos durante a fase de desenvolvimento. Isto representa um problema para as empresas de desenvolvimento de jogos, e em alguns casos, e impraticável suportar tais custos para equipas indie. Nesta tese e apresentada uma abordagem para a criação de mundos para jogos MMO. Estudam-se vários jogos MMO que são casos de sucesso de modo a identificar propriedades comuns nos seus mundos. O objectivo e criar uma framework flexível capaz de gerar mundos com estruturas que respeitam conjuntos de regras definidas por game designers. Para que seja possível usar a abordagem aqui apresentada em v arias aplicações diferentes, foram desenvolvidos dois módulos principais. O primeiro, chamado rule-based-map-generator, contem a lógica e operações necessárias para a criação de mundos. O segundo, chamado blocker, e um wrapper à volta do módulo rule-based-map-generator que gere as comunicações entre servidor e clientes. De uma forma resumida, o objectivo geral e disponibilizar uma framework para facilitar a geração de mundos para jogos MMO, o que normalmente e um processo bastante demorado e aumenta significativamente o custo de produção, através de uma abordagem semi-automática combinando os benefícios de procedural content generation (PCG) com conteúdo gráfico gerado manualmente.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia do Ambiente, perfil Engenharia Sanitária
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Estudos sobre as Mulheres.
Resumo:
Dissertação apresentada no âmbito do programa “Para Ser Mestre”, para obtenção do grau de Mestre (2.º ciclo) em Ensino da Biologia e da Geologia
Resumo:
Dissertação apresentada para obtenção do Grau de Doutor em Ambiente, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
O A. apresenta seis casos de pacientes observados durante o período toxêmico da esquistosomose mansônica. Dêstes, um foi de mulher cuja sintomatologia datava de um ano. Concebeu e deu à luz durante a enfermidade. Apresentava sinais de fibrose hepática quando do primeiro exame, ainda na vigência de sintomas do período agudo da enfermidade. Todos êstes pacientes apresentavam febre, dores abdominais, hepatoesplenomegalia e outras manifestações que têm sido descritas neste período da parasitose. Como notas dominantes no hemograma, leucocitose com eosinofilia, como ocorre nas infecções por helmintos com ciclo textrino, e anemia. Esta, nem todos apresentavam. Além de alterações do equilíbrio proteico e de resultados da exploração funcional do fígado, o A. chamou a atenção para a hípoglicemia e hipocolesterolemia encontradas em alguns dos observados. Foi digno de registro, também, a positividade tardia da intradermorreação para diagnóstico da esquistosomose. Todos os pacientes foram submetidos a tratamento antimonial, com bom resultado. Como reação colateral devemos mencionar a exacerbação da febre forçando, por vêzes à interrupção do mesmo. O A. faz referências a outros recursos terapêuticos empregados no Oriente: o F30.066, um nitrofurano de uso oral, e as sementes de Cucurbita moshata. Sugere a investigação em animais e no homem com sementes de abóbora outrora empregadas como tenifugo
Resumo:
Trabalho de projecto apresentado como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação
Resumo:
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação
Resumo:
Dissertação para obtenção do Grau de Mestre em Ensino da Matemática no 3º ciclo do Ensino Básico e no Secundário