31 resultados para Portais de interesse geral
Resumo:
É considerado um dos problemas na educação o facto de a aprendizagem poder ser muito baseada no uso da teoria. Sendo as experiências do ser humano uma grande parte da forma como vemos e vivemos o mundo, torna-se imprescindível o hábito da prática na formação do nosso conhecimento. Embora a teoria seja sempre necessária na construção de conceitos, deve ser complementada com a experiência de forma a consolidar a aprendizagem para melhor noção da realidade. Esta dissertação descreve uma didáctica para a integração de dispositivos hápticos aplicados à educação, concebendo assim um novo e inovador método de ensino aliado à prática. Dependendo da aceitação por parte dos alunos, este método de uso de tecnologia na educação para fins práticos pode revelar-se revolucionário. Experiências que seriam difíceis de realizar tornam-se possíveis de simular de uma forma real com a ajuda dos sistemas hápticos, em que a variedade de matérias que as aplicações podem simular é vasta. Especificamente, este trabalho fundamenta-se no estudo da aerodinâmica no voo com recurso a uma aplicação desenvolvida para o efeito e à potencialidade do aparelho háptico Novint Falcon, um interface sensorial táctil entre uma pessoa e um computador, de custo relativamente baixo em relação à generalidade dos preços deste tipo de dispositivos. Os testes que estudantes realizaram à aplicação revelaram grande interesse e curiosidade pela novidade da tecnologia háptica e apreciação no conceito do seu uso prático na educação. De forma geral, todos os alunos que participaram no ensaio do programa transmitiram feedback positivo, expressando maior ganho de motivação e desejo em ver este sistema aplicado a outras disciplinas.
Resumo:
O objectivo da Realidade Virtual é simples de entender mas muito difícil de implementar: criar ambientes completamente indiferenciáveis do mundo real com os quais se possa interagir de um modo natural. Desde a criação do Sensorama por Morton Heiling em 1962, passando pela difusão do conceito pelo público geral na década de 90 até os dias de hoje, a evolução da Realidade Virtual tem sido constante. Este conjunto de tecnologias tem estado envolvido por uma certa descrença por parte da sociedade, motivada pelas grandes expectativas que lhe foram atribuídas e pelo estado de desenvolvimento do hardware aquando do seu auge. No entanto, actualmente assiste-se a um ressurgimento do seu interesse no público geral com a introdução de imagem estereoscópica no cinema ou o sucesso dos controladores da consola Nintendo Wii. Hoje em dia as suas aplicações são muito variadas: desde o treino de pilotos de avião ao tratamento de fobias, passando pela industria do entretenimento e a visita virtual de locais com interesse histórico ou turístico. O objectivo desta tese de mestrado é explorar uma área que ainda não tem sido muito abrangida pela Realidade Virtual e que cobre também aspectos educacionais e lúdicos de modo a ser um factor de atracção para os estudantes do ensino secundário: a simulação de instrumentos musicais. Para tal foi implementado um sistema capaz de simular instrumentos musicais de percussão (uma bateria) utilizando imagem estereoscópica, som posicional e interfaces com o utilizador realistas. Os resultados obtidos nas sessões de avaliação efectuadas por alunos recentemente ingressados no ensino superior demonstram que o sistema desenvolvido, bem como a inovação em interfaces do utilizador com os dispositivos electrónicos de uma forma geral, constituem um meio efectivo na sua motivação para a escolha de um curso na área da engenharia.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
A implementação do ensino artístico público assumido por um Estado com uma função política e uma responsabilidade sobre a educação ocorre, em Portugal, com o aparecimento do regime liberal, nomeadamente, durante o governo Setembrista de Passos Manuel em 1856. É neste período que Almeida Garrett elabora e propõe ao executivo um Plano para a fundação e reorganização do Theatro Nacional que, entre muitos outros aspectos, englobava a criação da primeira instituição de ensino artístico pública - o Conservatório Geral de Arte Dramática. O presente artigo tem como objectivo apresentar a perspectiva teórica elaborada para a análise do Conservatório Geral de Arte Dramática, mediante o olhar da Sociologia das Organizações, como uma realidade organizacional educativo, em que o conhecimento será obtido por evidências indirectas e por visualizações daquilo que ela pode ter de semelhante mediante a interpretação das dimensões política e organizacional da instituição e da descodi6cação do processo de implementação operado pela racionalidade dominante através da utilização de metáforas organizacionais. Esta formulação teórica insere-se num trabalho de dissertação de mestrado com o título A reforma do Ensino da Música no contexto das reformas liberais: do Conservatório Geral de Arte Dramática de 1836 ao Conservatório Real de Lisboa de 1841.
Resumo:
Segundo as previsões da Entidade Reguladora dos Serviços Energéticos (ERSE), o défice tarifário deverá atingir em finais do 2013 um valor acumulado de 3,7 mil milhões de Euros. Na comunicação social, o défice tarifário (DT) é considerado como mais uma “renda” a alguns grupos de interesse. Na realidade o DT é justificado por uma acumulação sucessiva de diversos tipos de sobrecustos do sistema elétrico que não foi considerada nas tarifas e preços da eletricidade nos anos anteriores aos respetivos consumidores elétricos. O trabalho aqui apresentado corresponde a uma primeira tentativa de analisar as razões políticas e económicofinanceiras para a existência do défice tarifário. Nesse sentido serão abordadas: as origens e justificações dos diferentes sobrecustos (CAE’s, CMEC’s, Garantia de Potência, Produção em Regime geral (PRE), convergência tarifária com as regiões autónomas dos Açores (RAA) e da Madeira (RAM), entre outros); a análise dos diferentes tipos de mecanismos; os parâmetros no cálculo dos sobrecustos bem como as possíveis soluções e medidas já implementadas para reduzir os efeitos do défice tarifário nas tarifas nos consumidores.
Resumo:
Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.
Resumo:
Numa Estação de Tratamento de Águas Residuais (ETAR), a otimização do processo de Digestão Anaeróbia (DA) é fundamental para o aumento da produção de biogás, que por sua vez é convertido em energia, essencial para a rentabilidade de exploração de ETAR. No entanto, a complexidade do processo de Digestão Anaeróbia das lamas constitui um obstáculo à sua otimização. Com este trabalho pretende-se efetuar a análise e tratamento de dados de Digestão Anaeróbia, com recurso a Redes Neuronais Artificiais (RNA), contribuindo, desta forma, para a compreensão do processo e do impacto de algumas variáveis na produção de biogás. As Redes Neuronais Artificiais são modelos matemáticos computacionais inspirados no funcionamento do cérebro humano, com capacidade para entender relações complexas num determinado conjunto de dados, motivo por que se optou pela sua utilização na procura de soluções que permitem predizer o comportamento de uma DA. Para o desenvolvimento das RNA utilizou-se o programa NeuralToolsTM da PalisadeTM. Como caso de estudo, a metodologia foi aplicada ao Digestor A da ETAR Sul da SIMRIA, empresa onde teve lugar o estágio curricular que originou o presente trabalho. Nesse contexto, utilizaram-se dados com informação referente aos últimos dois anos de funcionamento do digestor, disponíveis na empresa. Apesar de se terem verificado certas limitações, na predição em alguns casos particulares, de um modo geral, considera-se que os resultados obtidos permitiram concluir que as redes neuronais modeladas apresentam boa capacidade de generalização na imitação do processo anaeróbio. Conclui-se, portanto, que o estudo realizado pode constituir um contributo com interesse para a otimização da produção do biogás na DA de ETAR Sul da SIMRIA e que a utilização de RNA poderá ser uma ferramenta a explorar, quer nessa área, quer noutras áreas de gestão de sistemas de saneamento básico.
Resumo:
Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação da Professora Doutora Ana Maria Alves Bandeira
Resumo:
Dissertação de Mestrado apresentada ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Auditoria, sob orientação do Mestre Paulino Silva
Resumo:
A fitoterapia é umas das Medicinas Alternativas e/ou Complementares mais utilizadas pela população no quotidiano. Esta terapêutica é constituída por misturas de compostos químicos, que são responsáveis pelas suas ações no organismo. Estes compostos não atuam de forma independente, mas sim por efeito aditivo, antagónico ou sinérgico, resultando numa interação dos vários constituintes e dos diversos locais de ação. Nos últimos anos ressurgiu o interesse por esta terapia nos países desenvolvidos, principalmente devido aos efeitos secundários que os medicamentos convencionais podem provocar, e também pelo uso descontrolado e abusivo de certos fármacos. Deste modo, o número de estudos científicos com plantas e seus compostos tem vindo a aumentar ao longo dos anos, fornecendo evidências científicas quanto à sua segurança, aceitabilidade, eficácia, e mostrando menos efeitos secundários que os medicamentos convencionais. Com este projeto pretende-se caraterizar o conhecimento e o consumo de fitoterápicos pela população do distrito de Viana do Castelo. Aplicou-se um estudo observacional, descritivo do tipo transversal e analítico. A população alvo do estudo é a população em geral, residente no distrito de Viana do Castelo, com mais de 18 anos de idade. Para a recolha de informação foi realizado um questionário anónimo, confidencial e voluntário, a 914 individuos. A amostra é constituída maioritariamente por indivíduos do género feminino (58,3%). A faixa etária mais frequente é dos 18 aos 25 anos (19,7%) distribuída por todos os concelhos do distrito. Verificou-se que mais de 40% da população tem doença crónica, e mais de 60% recorreu a produtos fitoterápicos no último ano, havendo uma relação entre quem recorre a esta terapia e a existência de uma patologia crónica associada. Observou-se ainda que mais da 80% da população que utiliza estes produtos se encontra satisfeita com os resultados, sendo que mais de 85% dos utilizadores de fitoterápicos pretende voltar a utilizá-los.
Resumo:
A nível mundial, a população em geral preocupa-se cada vez mais com o ambiente e com os problemas graves que lhe surgem associados. De forma a reduzir os impactes, foram desenvolvidos métodos de avaliação no que concerne à sustentabilidade. O setor turístico é uma das atividades que causa elevados impactes ambientais e, por isso, é importante a aplicação destas metodologias de modo a diminuir ou mesmo eliminar as consequências nefastas para o ambiente. Atualmente, não só existem preocupações a nível ambiental como também a nível económico e sociocultural. Assim e pelo atrás exposto, surgiu a ideia de adaptar a metodologia SBTool, desenvolvendo-a para classificar os edifícios turísticos relativamente à sua sustentabilidade, utilizando o triângulo do desenvolvimento sustentável que consiste nas três vertentes já referidas. Esta metodologia pretende avaliar os hotéis urbanos com aproximadamente 4* durante a fase de operação. Nesta dissertação, pretende-se ter em conta essa avaliação tripartida, bem como sensibilizar os intervenientes do mercado da construção de edifícios turísticos em Portugal e ajudar a implementar políticas e soluções mais adequadas para a construção e utilização destes edifícios.
Resumo:
Dissertação de Mestrado apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação da Professora Doutora Alcina Augusta de Sena Portugal Dias
Resumo:
A evolução tecnológica das últimas décadas na área das Tecnologias da Informação e Comunicação (TIC) contribuiu para a proliferação de fontes de informação e de sistemas de partilha de recursos. As diversas redes sociais são um exemplo paradigmático de sistemas de partilha tanto de informação como de recursos (e.g. audiovisuais). Essa abundância crescente de recursos e fontes aumenta a importância de sistemas capazes de recomendar em tempo útil recursos personalizados, tendo por base o perfil e o contexto do utilizador. O objetivo deste projeto é partilhar e recomendar locais, artigos e vídeos em função do contexto do utilizador assim como proporcionar uma experiência mais rica de reprodução dos vídeos partilhados, simulando as condições de gravação dos vídeos. Este sistema teve como inspiração dois projetos anteriormente desenvolvidos de partilha e recomendação de locais, artigos e vídeos turísticos em função da localização do utilizador. O sistema desenvolvido consiste numa aplicação distribuída composta por um módulo cliente Android, que inclui a interface com o utilizador e o consumo direto de serviços externos de suporte, e um módulo servidor que controla o acesso à base de dados central e inclui o serviço de recomendação baseado no contexto do utilizador. A comunicação entre os módulos cliente e servidor utiliza um protocolo do nível de aplicação dedicado. As recomendações geradas pelo sistema têm por base o perfil de utilizador, informação contextual (posição do utilizador, data e hora atual e velocidade atual do utilizador) e podem ser geradas a pedido do utilizador ou automaticamente, caso sejam encontrados pontos de interesse de grande relevância para o utilizador. Os pontos de interesse recomendados são apresentados com recurso ao Google Maps, incluindo o período de funcionamento, artigos complementares e a reprodução imersiva dos vídeos relacionados. Essa imersão tem em consideração as condições meteorológicas, temporais e espaciais aquando da gravação do vídeo.
Resumo:
O aumento da popularidade e da diversidade dos Festivais de Verão, a que temos assistido nos últimos anos, quer a nivel nacional e internacional, explica o interesse no desenvolvimento de um estudo sobre a eficácia das marcas patrocinadoras e o impacto nos mesmos tanto a nivel de conhecimento e consumo. Quando uma marca é patrocinadora de um Festival de Verão tem como principal objetivo que os seus participantes a identifiquem como tal e, consequentemente, passem a ser consumidores dando a conhecer a essência da marca, seus produtos e serviços associados. O presente estudo visa analisar até que ponto a associação da marca ao festival e o aumento do consumo são concretizados. Neste sentido, foi desenvolvido um estudo empírico de carácter quantitativo sobre as atitudes dos consumidores face ao patrocínio de marcas a festivais de música em Portugal. Os festivais seleccionados foram: Meo Marés Vivas, Nos Primavera Sound e Vodafone Paredes de Coura. O grande objectivo consistiu na avaliação da perceção dos consumidores de festivais de Verão nas marcas patrocinadoras dos mesmos. Tendo em conta os objetivos desta dissertação concluímos que, de uma maneira geral, que estes festivais são frequentados essencialmente por estudantes, com idades compreendidas entre 16 e 22 anos. Após análise das variáveis, as marcas patrocinadoras influenciam positivamente o consumidor, no que concerne à recordação/notoriedade da marca e à lealdade na com a mesma. Relativamente à identificação dos patrocinadores, verificou-se que as marcas mais associadas são as que possuem relação semântica com o festival e são, também, as que possuem maior consumo, notoriedade e relevância no mercado. O Vodafone Paredes de Coura destaca-se por ser o festival o que provocou mais atitudes positivas por parte dos inquiridos.