988 resultados para IT Usage
Resumo:
O betão é o material de construção feito pelo Homem mais utilizado no mundo. A sua composição é um processo complexo que exige um conhecimento teórico sólido e muita experiência prática, pelo que poucas pessoas estão habilitadas para o fazer e são muito requisitadas. No entanto não existe muita oferta actual de software que contemple alguns dos aspectos importantes da composição do betão, nomeadamente para o contexto europeu. Nesse sentido, foi desenvolvido um sistema de apoio à decisão chamado Betacomp, baseado num sistema pericial, para realizar estudos de composição de betão. Este contempla as normas legais portuguesas e europeias, e a partir da especificação do betão apresenta toda a informação necessária para se produzir um ensaio de betão. A aquisição do conhecimento necessário ao sistema contou com a colaboração de um especialista com longa e comprovada experiência na área da formulação e produção do betão, tendo sido construída uma base de conhecimento baseada em regras de produção no formato drl (Drools Rule Language). O desenvolvimento foi realizado na plataforma Drools.net, em C# e VB.net. O Betacomp suporta os tipos de betão mais comuns, assim como adições e adjuvantes, sendo aplicável numa grande parte dos cenários de obra. Tem a funcionalidade de fornecer explicações sobre as suas decisões ao utilizador, auxiliando a perceber as conclusões atingidas e simultaneamente pode funcionar como uma ferramenta pedagógica. A sua abordagem é bastante pragmática e de certo modo inovadora, tendo em conta parâmetros novos, que habitualmente não são considerados neste tipo de software. Um deles é o nível do controlo de qualidade do produtor de betão, sendo feito um ajuste de compensação à resistência do betão a cumprir, proporcional à qualidade do produtor. No caso dos produtores de betão, permite que indiquem os constituintes que já possuem para os poderem aproveitar (caso não haja impedimentos técnicos) , uma prática muito comum e que permitirá eventualmente uma aceitação maior da aplicação, dado que reflecte a forma habitual de agir nos produtores.
Resumo:
Com a evolução da Internet houve uma consequente transformação da forma como os resultados são apresentados e das técnicas de visualização e apresentação de conteúdos. A presente dissertação é sobre visualização com nuvens de tags e foi a conjugação de diversos factores que originou a investigação sobre este tema. Uma nuvem de tags (em inglês: tag clouds) é uma concepção visual de um conjunto de tags isoladas com uma representação ilustrativa da sua importância, ou seja visualmente hierarquizadas e em que cada tag se hiperliga a um ou mais sítios Web ou documentos. São extremamente úteis para a navegação ou para a descoberta de informação genérica, podendo requerer menor carga cognitiva do utilizador durante consultas e pesquisas se alguns aspectos forem considerados na sua construção. Nesta dissertação discutem-se alguns dos factores visuais que podem contribuir para que as nuvens de tags sejam ferramentas efectivas e intuitivas para os utilizadores. O conceito de folksonomia está relacionado com nuvens de tags, permitindo categorizar as definições atribuídas a conteúdos recorrendo a palavras-chave (tags). Neste documento são ainda exploradas as suas vantagens e desvantagens. Discutem-se ainda alguns modos de visualização e apresentação de nuvens de tags, desde o tipo de ordenação ao algoritmo de geração da nuvem de tags. Aborda-se ainda o impacto do tipo de fonte e a utilização de cores monocromáticas ou coloridas que estas possam ter na visualização da nuvem. A própria tag também é categorizada e explorada ao nível do seu posicionamento na nuvem e a percepção que causa no utilizador. Sobre a visualização de nuvens de tags, refere-se ainda que as conclusões obtidas foram utilizadas num repositório de objectos educativos.
Resumo:
A sociedade contemporânea tem acompanhado a evolução da Internet, ligando cada vez mais pessoas que exigem mais dela a cada dia que passa e desencadeando uma proliferação tecnológica nunca antes observada. A utilização de recursos, como vídeo e áudio na Internet, tem ganho nos últimos anos um crescente interesse. No entanto, constata-se a carência ou falta de recursos educativos digitais na área do áudio, que sejam capazes de apresentar uma pedagogia eficiente face a um tema muito complexo e extenso, para todos aqueles que queiram aprender de forma mais aprofundada o áudio como componente de engenharia. Na internet, sites de vídeos como Youtube ensinam a usar software de edição de áudio como Audacity, conceitos sobre som e áudio. Contudo, todos estão espalhados, sendo que a maior parte deles não possui fundamentos científicos ou uma bibliografia que acompanhe os conteúdos que leccionam. A proposta desta investigação é pesquisar sobre conhecimentos e recursos de áudio, integrando-os num produto Learning Object, Investigar noções teóricas sobre o som, equipamentos e técnicas usadas na área, assim como obter melhores resultados num espaço para a gravação que o aluno poderia fazer, aglomerando esses conceitos num protótipo mediamente desenvolvido. Foi necessária uma investigação extensa nesta área e avaliar e investigar a possibilidade de um recurso educativo, como o DALCH, capaz de proporcionar uma aprendizagem efectiva dos conceitos relacionados com áudio, que é um conceito complexo. Uma vez realizada essa investigação, foi necessário desenvolver, testar e avaliar um produto Learning Object, que apresentasse o áudio na sua globalidade, desde conceitos básicos até conceitos inerentes à própria produção. Foi possível aferir que esta solução pode contribuir para a formação desses alunos mediante uma experiência de aprendizagem agradável e intuitiva.
Resumo:
A descoberta de conhecimento em dados hoje em dia é um ponto forte para as empresas. Atualmente a CardMobili não dispõe de qualquer sistema de mineração de dados, sendo a existência deste uma mais-valia para as suas operações de marketing diárias, nomeadamente no lançamento de cupões a um grupo restrito de clientes com uma elevada probabilidade que os mesmos os utilizem. Para isso foi analisada a base de dados da aplicação tentando extrair o maior número de dados e aplicadas as transformações necessárias para posteriormente serem processados pelos algoritmos de mineração de dados. Durante a etapa de mineração de dados foram aplicadas as técnicas de associação e classificação, sendo que os melhores resultados foram obtidos com técnicas de associação. Desta maneira pretende-se que os resultados obtidos auxiliem o decisor na sua tomada de decisões.
Resumo:
Objetivos – Um dos principais objetivos da neurociência tem sido, desde sempre, compreender as funcionalidades do cérebro. A introdução da ressonância magnética funcional contribuiu em grande escala para o desenvolvimento do estudo cerebral. Assim, esta investigação tem como principal objetivo identificar e desenhar os diferentes perfis de localizações cerebrais, a nível do córtex motor, numa população jovem saudável, permitindo, assim, um maior conhecimento nesta área e dando um contributo à área da neurologia. Material e métodos – Foi realizado um estudo de ressonância magnética funcional em 30 indivíduos saudáveis numa clínica de imagiologia médica. Para tal recorreu-se a equipamento adequado para a recolha de dados. O paradigma motor utilizado foi o movimento dos dedos das mãos. Através das imagens obtidas foi medida a área de cada região ativa. Com o suporte do programa SPSS (versão 19) todos os valores foram tratados estatisticamente. Conclusão – Após todo este processo concluiu-se que a área do cérebro maioritariamente ativa, no momento do paradigma motor, encontra-se no hemisfério esquerdo.
Resumo:
A sociedade moderna encontra-se numa evolução progressiva e constante no que respeita às novas tecnologias. Independentemente da área de conhecimento, é de senso comum, que cada vez mais é necessária formação sólida, sendo fundamental a preparação e a consolidação das futuras gerações na utilização das novas tecnologias. As plataformas de e-learning são hoje em dia uma realidade mais que afirmada, e com aplicação em todos os sectores de actividade. A área da saúde não foge à regra, verificando-se que os seus profissionais evidenciam falta de disponibilidade para participação nas formações presenciais, fundamentais para o seu processo de formação contínua (LLL – Long Liffe Learning). Estes profissionais necessitam de estar continuamente actualizados, de forma a melhor poderem contribuir para o desempenho das suas funções, como o aconselhamento dos utentes, acompanhamento de doentes crónicos, uso correcto dos medicamentos, entre outros. O presente trabalho pretende implementar em ambiente hospitalar o modelo de formação à distância em regime de e-learning ou b-learning, identificando potenciais vantagens e constrangimentos inerentes ao processo. Para o efeito, será utilizada a plataforma MEDUCA criada pelo GILT-ISEP e baseada em Moodle, como uma plataforma destinada á formação para profissionais da área da Saúde. Esta dissertação apresenta uma investigação sobre a implementação da dita plataforma em ambiente hospitalar. Esta dissertação apresenta todo o estudo/trabalho desenvolvido para a implementação da plataforma MEDUCA nalgumas entidades contactadas da área da saúde. Espera-se que esta ferramenta ofereça uma alternativa interactiva de educação e aprendizagem, visando melhorar constantemente o nível formativo de cada profissional de saúde.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Trabalho Final de Mestrado para obtenção de grau de Mestre em Engenharia Mecânica na Especialidade de Manutenção e Produção
Resumo:
O tema do sistema de automação da protecção diferencial de linha e comparação direccional é merecedor de uma nova abordagem devido às recentes inovações tecnológicas ocorridas desde o aparecimento dos relés digitais e à consequente comunicação entre os sistemas de protecção, em particular na comunicação entre protecções diferenciais de linha. A protecção diferencial de linha apresenta claras vantagens face às protecções actualmente utilizadas para a protecção de linhas de transmissão e distribuição, tais como, Protecção de Máximo Intensidade de Fase, Máximo Intensidade Homopolar Direccionale Protecção de Distância. Contudo, existem alguns problemas associados a este tipo de protecções, nomeadamente na comunicação entre relés. Para automação e comunicação de protecções diferenciais de linhas de transmissão, no caso da ocorrência de defeitos na zona protegida pelo sistema de protecção diferencial foi empregue um método inovador para este tipo de sistema. Uma vez que a eficácia da actuação das protecções diferenciais depende do rigor das variáveis que são necessárias enviar entre protecções que se encontram localizadas em subestações distintas, recorreu-se à utilização de um automatismo para comunicação entre relés suportado pelo desenvolvimento de novos algoritmos para detectar quase instantaneamente um defeito em qualquer zona de protecção de uma linha de transmissão. Estes algoritmos são baseados na Transformada de Park, pelo que, é introduzido um novo conceito neste tipo de protecções. Através destes algoritmos é possível atenuar os problemas associados à protecção diferencial de linha. No sentido de verificar a aplicabilidade destes algoritmos à protecção diferencial de linha são apresentados diversos casos de estudo. Através dos resultados obtidos também foi possível verificar as vantagens associadas à utilização dos algoritmos propostos.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Electrónica e Telecomunicações
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Publicidade e Marketing.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Civil
Resumo:
The current industry trend is towards using Commercially available Off-The-Shelf (COTS) based multicores for developing real time embedded systems, as opposed to the usage of custom-made hardware. In typical implementation of such COTS-based multicores, multiple cores access the main memory via a shared bus. This often leads to contention on this shared channel, which results in an increase of the response time of the tasks. Analyzing this increased response time, considering the contention on the shared bus, is challenging on COTS-based systems mainly because bus arbitration protocols are often undocumented and the exact instants at which the shared bus is accessed by tasks are not explicitly controlled by the operating system scheduler; they are instead a result of cache misses. This paper makes three contributions towards analyzing tasks scheduled on COTS-based multicores. Firstly, we describe a method to model the memory access patterns of a task. Secondly, we apply this model to analyze the worst case response time for a set of tasks. Although the required parameters to obtain the request profile can be obtained by static analysis, we provide an alternative method to experimentally obtain them by using performance monitoring counters (PMCs). We also compare our work against an existing approach and show that our approach outperforms it by providing tighter upper-bound on the number of bus requests generated by a task.
Resumo:
Due to the growing complexity and adaptability requirements of real-time systems, which often exhibit unrestricted Quality of Service (QoS) inter-dependencies among supported services and user-imposed quality constraints, it is increasingly difficult to optimise the level of service of a dynamic task set within an useful and bounded time. This is even more difficult when intending to benefit from the full potential of an open distributed cooperating environment, where service characteristics are not known beforehand and tasks may be inter-dependent. This paper focuses on optimising a dynamic local set of inter-dependent tasks that can be executed at varying levels of QoS to achieve an efficient resource usage that is constantly adapted to the specific constraints of devices and users, nature of executing tasks and dynamically changing system conditions. Extensive simulations demonstrate that the proposed anytime algorithms are able to quickly find a good initial solution and effectively optimise the rate at which the quality of the current solution improves as the algorithms are given more time to run, with a minimum overhead when compared against their traditional versions.
Resumo:
In this paper we will analyse the usage of FTA to support decision-making in employment policy relate to specific occupational groups. The examples can be better understood if one focus on the nanotechnology and its implications on some sectors (clothing, bio-medical engineering, micro-electronics). When this is done will be clear which occupations will engage a restructuring process (engineers, specialised technicians, qualified machine operators, quality controllers) and what policies are being designed to cope with it. This means toward which extend social partners have driven specific policies on these issues (focused in their sectors).