466 resultados para Modelação do utilizador
Resumo:
A utilização crescente das tecnologias de informação provocou uma revolução do conhecimento. O resultado deste novo paradigma trouxe mudanças significativas no modo de gerir e difundir a informação arquivística. A digitalização de parte ou da totalidade de acervos tem sido uma prática constante nos arquivos, bibliotecas e centros de documentação como forma de permitir ao utilizador o acesso remoto e alargado à informação. Neste sentido, o presente estudo, o qual enquadra-se na Sociedade da Informação, incide sobre preservação a longo prazo de documentos digitalizados e tem como objeto de estudo os representantes digitais inseridos no Arquivo Científico Tropical Digital (ACTD), pertencente ao Instituto de Investigação Científica Tropical (IICT). Propõe-se aqui entender o processo de digitalização dos documentos inseridos no ACTD, analisar se é realizada alguma preservação digital a longo prazo, bem como analisar a perceção dos profissionais da instituição em estudo relativa à esta temática e a partir deste conhecimento fazer recomendações de preservação digital a longo prazo ao Arquivo digital. O método de recolha e análise de dados utilizado diz respeito à análise de documentos institucionais do IICT, das páginas web do IICT e do ACTD, a fim de compreender a sua génese e estrutura e, a análise qualitativa de entrevistas semiestruturadas aplicada a cinco colaboradores do IICT que trabalham direta ou indiretamente com o ACTD. Para ajudar na análise dos dados recolhidos em entrevista construiu-se uma grelha de análise qualitativa por tema e categoria. A partir do tratamento e análise dos dados identificou-se algumas dificuldades que o ACTD apresenta relativamente á preservação digital a longo prazo, e recomendações foram sugeridas. O IICT não possui plano de preservação digital, nem ações de preservação definidas para serem aplicadas aos objetos digitais do ACTD. A perceção dos profissionais entrevistados relativa à temática é superficial, por isso no que diz respeito à preservação dos objetos digitais recomenda-se ao ACTD e aos profissionais que estão a trabalhar diretamente com as coleções documentais digitalizadas a criação de um grupo de trabalho, de um projeto de digitalização formalizado e de um plano de preservação digital, além da utilização de metadados de preservação, assim como a definição de normas e estratégias de preservação com base em políticas nacionais e internacionais.
Resumo:
Sistemas de gestão documental e de recuperação de informação são hoje ferramentas essenciais para aceder aos grandes volumes de informação disponíveis. O exemplo mais popular deste cenário é o motor de pesquisa Google, que se estimava possuir cerca de 45 milhares de milhões de páginas Web, em Março de 2013 [14]. Uma vez que a maioria das pessoas, apenas consultam os primeiros dez resultados duma pesquisa, torna-se crucial conseguir uma boa ordenação das respostas, de forma a permitir que o utilizador veja os resultados contendo informação diversificada, de acordo com as suas preferências e indo ao encontro daquilo que escreveu na pesquisa. Além do objetivo de ordenação segundo a query escrita pelo utilizador, também foi tido como objetivo a remoção de documentos similares do topo dos resultados das pesquisas. Nesta tese, pretendemos investigar o uso de algoritmos de aprendizagem de ordenação de resultados, por forma a aumentar a qualidade dos resultados de topo das pesquisas e analisar algumas maneiras para aumentar a diversidade de informação no topo dos resultados das pesquisas. Uma aplicação foi desenvolvida no contexto desta tese e foi aplicada a um sistema de pesquisa que foi desenvolvido em contexto empresarial com a Quidgest S.A, sendo que posteriormente irá ser integrada numa plataforma de desenvolvimento rápido de aplicações.
Resumo:
Este trabalho de Projecto consiste numa plataforma online que possibilita ao seu utilizador gerir simultaneamente a saúde, o exercício físico e o regime alimentar. A plataforma é uma ferramenta que ajuda a promover o bem-estar do indivíduo, porque auxilia a monitorizar a toma de medicação e a agendar consultas e/ou exames. Permite ainda identificar o exercício físico e a dieta adequada para o estado de saúde do utilizador, através do teste de aptidão física e das calculadoras de IMC, TMB e NCD. Para o desenvolvimento da plataforma foram considerados os princípios da usabilidade e acessibilidade heurística de Jacob Nielsen. O desenvolvimento do projecto assenta nas linguagens de Programação de HTML5, CSS3, PHP, MySQL, Javascript (JQuery) e na plataforma de RWD do Twitter-Bootstrap.
Resumo:
Este texto falará de como é percepcionado o “outro” e como nos percepcionámos a nós mesmos através da comunicação em plataformas virtuais de tecnologias que utilizam sistemas de chats de video conhecidos como anónimos ou aleatórios, nomeadamente leituras sobre a vigilância existente, grafismo, design, capacidade de imersão, co-presença e de comunicação. Repararemos que este tipo de sites traz uma certa novidade aos mundos virtuais e reais. Por um lado, uma possibilidade de sermos anónimos (dada a liberdade que estes sites dão ao utilizador, sem uma autoridade hierárquica, cada um pode fazer o que lhe apetece até ser «rejeitado» pelo outro utilizador, através de um clique no botão "next"). Também pelo facto de ser um entre milhares de outros idênticos, todos enquadrados pela mesma janela (espaço homogéneo = população homogénea). A quase impossibilidade de voltarmos a ver o mesmo utilizador, online ou na vida real, dá-nos também a liberdade de agirmos como queremos. Por outro lado, os níveis de realismo no site são elevados porque a comunicação é baseada em webcams e microfones que dão uma representação muito aproximada da realidade, de modo que o utilizador se mostra mais ou menos tal como é. Neste sentido, neste antagonismo destas duas forças surge uma sensação paradoxal. Os utilizadores sentem-se como que a representar para fantasmas, mas são pessoas que estão ali também, corpos reais por trás de uma imagem. O próprio utilizador é como um fantasma que pode desaparecer ou esconder-se a qualquer momento, optar por estar ou não presente. É na fronteira entre estes dois mundos que a fantasia, jogos de papéis e personalidades e construção de identidades tomam lugar.
Resumo:
Hoje em dia, há um aumento evidente dos produtos ou soluções sob medida, com o objectivo de melhor se adaptarem às necessidades dos perfis de clientes. Num outro contexto, existe um largo crescimento da presença da computação informática nas salas de aulas, de maneira a auxiliar o professor a cativar e motivar os alunos, através de jogos educativos. Contudo, nem todos os docentes têm conhecimentos informáticos avançados, então não têm forma de perso-nalizar jogos, o que beneficiaria as crianças com soluções adaptadas às suas necessidades. Com isto, foi idealizado um sistema, que assenta sobre uma framework de criação de jogos, e que possibilite a um utilizador com menos habilidades informáticas a possibilidade de criar um jogo. Apesar de existirem diversos jogos desse tipo, seria vantajoso um professor poder criar um jogo, personalizando-o de acordo com as necessidades do aluno e com as competências que se desejam desenvolver. Este sistema consiste numa interface em que o utilizador segue uma série de passos definidos, do qual resulta um ficheiro com todas as características de jo-go, que será depois importado para uma framework, permitindo assim a criação de diferentes jogos, desde que se enquadrem na mesma mecânica.
Resumo:
A presente dissertação trata do tema do multilinguismo em bibliotecas digitais, destacando a importância da temática no âmbito do acesso e da RI (Recuperação da Informação). O objetivo é a consideração e elaboração de uma forma de análise das funcionalidades multilingues disponibilizadas, aplicável a estudos de caso. Este estudo é iniciado por uma exposição genérica da temática das bibliotecas digitais e do multilinguismo, com a explicitação de conceitos considerados relevantes e determinantes para este campo de estudo. De seguida, são consideradas algumas problemáticas atuais e soluções relacionadas com o tema: a relação desta área com o campo da terminologia e alguns pontos fulcrais no que toca à avaliação no acesso e na recuperação da informação multilingue. Após esta exposição teórica e a observação exploratória dos estudos de caso selecionados pretende-se, então, criar critérios de análise destinados à avaliação e à comparação de bibliotecas digitais multilingues. Por último, após a aplicação dos critérios, serão pormenorizadamente apresentados e comparados os três estudos de caso selecionados de bibliotecas digitais multilingues apresentando, simultaneamente, os resultados obtidos. Pretende-se desta forma desenvolver um sumário de boas práticas através do estudo efetuado. Estas boas práticas destinam-se à identificação de incoerências, apresentando igualmente áreas de melhoria. Em todo este estudo o utilizador é o ponto fulcral, uma vez que a análise aqui efectuada centra-se no acesso à informação multilingue através da perspetiva do público da biblioteca digital.
Resumo:
Com o aumento do número de dispositivos móveis, os sistemas de comunicação sem fios têm evoluído de forma a aumentar os débitos de transferência de dados. Nos sistemas de comunicação sem fios tradicionais, um nó recetor apenas permite a receção de um sinal de cada vez (Single Packet Reception - SPR). Com o aparecimento de técnicas de receção múltipla (ex. CDMA, UWB, MU-MIMO), tornou-se possível a receção de múltiplos pacotes em simultâneo (Multipacket Reception - MPR). Porém, os protocolos de controlo de acesso ao meio (MAC) não foram adaptados de forma a tirar partido da capacidade de MPR no recetor. Esta dissertação aborda a condição de receção de múltiplos pacotes em simultâneo, caracterizando o número médio de pacotes recebidos, tendo em conta o número total de transmissões. A partir desta caracterização, é estudado o desempenho de três protocolos MAC. Os protocolos são baseados numa fase de negociação seguida de uma fase de transmissão. A caracterização do número médio de pacotes recebidos permite avaliar de uma forma integrada (nível físico e MAC) o desempenho dos diferentes protocolos MAC. Finalmente, a avaliação de desempenho evidencia o aumento de débito quando é utilizado MPR nas duas fases (negociação e transmissão), o que constitui um bom ponto de partida para o desenho de futuros protocolos MAC para sistemas MPR.
Resumo:
Os terramotos têm sido considerados uma das forças mais destrutivas e violentas da natureza, causando grandes tragédias e perdas económicas significativas. O objetivo principal do presente estudo é avaliar o comportamento global e local de três pontes pedonais, pré-fabricadas, durante a ação sísmica regulamentar. Através destas análises, pretende-se avaliar o risco de colapso das estruturas por “descalçamento” do tabuleiro e, caso necessário, propor soluções para evitar este fenómeno e melhorar o desempenho sísmico dos passadiços. No domínio de pontes, o “descalçamento dos apoios” é um tipo de rotura que pode ocorrer em estruturas com tramos simplesmente apoiados, onde os problemas surgem geralmente na interface de ligação tabuleiro-pilar, podendo conduzir ao derrubamento do primeiro. Este tipo de ligação é geralmente constituído por um conjunto de varões de aço – ferrolhos, chumbados verticalmente ao capitel do pilar e que atravessam placas de neoprene, ficando instalados no negativo das vigas. A selagem dos varões é normalmente realizada com argamassa de alta resistência. Os problemas que surgem neste tipo de ligação estão associados, a maior parte das vezes, à falta de manutenção e ao insuficiente comprimento de entrega do tabuleiro na zona dos aparelhos de apoio. A simulação do comportamento da estrutura durante as várias fases construtivas e aplicação de cargas, até ao colapso total, implica a utilização de uma ferramenta adequada. A modelação numérica foi efetuada com recurso ao programa de cálculo não-linear de estruturas Extreme Loading for Structures, baseado no Método dos Elementos Aplicados. O método considera os efeitos da não-linearidade física e geométrica, permitindo analisar o comportamento das estruturas durante a fase elástica e inelástica, passando pela cedência das armaduras, abertura e propagação de fendas até à separação dos elementos. Com base neste trabalho, foi possível verificar alterações significativas na resposta sísmica da estrutura, nomeadamente devido à eventual degradação dos ferrolhos.
Resumo:
Bacillus subtilis tem a capacidade de utilizar arabinoligossacáridos presentes na parede das células vegetais, através de um consórcios de enzimas envolvidas na hidrólise enzimática dos mesmos. A captação destes carbohidratos por parte do Bacillus subtilis depende de dois transportadores membranares AraE e AraNPQ-MsmX. Após a captação de L-arabinose e arabinoligossacáridos, estes substratos serão metabolizados pelos produtos enzimáticos codificados por genes pertencentes ao operão responsável pela metabolização de arabinose araABDLMNPQabfA. Neste operão, para além dos genes responsáveis pelo transportador AraNPQ, o gene araL determina a síntese de uma enzima com atividade de fosfatase, AraL, que tem putativamente como principal função a destoxificação de intermediários metabólicos fosforilados, em situações particulares. O objectivo deste trabalho consistiu em descobrir quais os determinantes moleculares envolvidos em ambos os processos de reconhecimento molecular, ora o reconhecimento de arabinoligossacáridos por parte da AraN, do ponto de vista dos carbohidratos ora de carbohidratos fosforilados do ponto de vista da AraL. Para elucidar estes processos de reconhecimento molecular proteína-carbohidrato foi utilizada a técnica de RMN, modelação computacional e mutagénese dirigida. No primeiro capitulo são introduzidos conceitos fundamentais para a percepção da ação de ambas as proteínas (AraN e AraL), no organismo Bacillus subtilis. O segundo capitulo, refere-se ao estudo dos mecanismos envolvidos no reconhecimento proteína-carbohidrato através da técnica de STD-RMN para estudar interações do ponto de vista do carbohidrato, bem como abordagens bioinformáticas tais como alinhamentos de sequencia primária e dockings moleculares, para identificar resíduos do ponto de vista da proteína passiveis de se encontrarem envolvidos no reconhecimento molecular, que numa última instância são mutados para se confirmar a sua relevância no processo de reconhecimento molecular do ponto de vista da proteína. Neste capitulo é demonstrado que a AraN é responsável pelo reconhecimento de arabinoligossacáridos e celoligossacáridos. No que diz respeito aos primeiros, a AraN reconhece preferencialmente arabinoligossacáridos com três subunidades, verificando-se a perda de saturação na subunidade não redutora da arabinotetraose. O processo de reconhecimento molecular apresenta uma constante de dissociação com uma ordem de grandeza na ordem dos μM. Do ponto de vista da proteína são identificados resíduos (W253, Y254 e Y54) putativos de se encontrarem também eles envolvidos no reconhecimento molecular do ponto de vista da AraN através de interações CHstacking. Finalmente no terceiro capitulo, é apresentada a optimização da sobrexpressão da AraL, dado que numa primeira fase a sua produção ocorria sob a forma de corpos de inclusão. Para tal são descritas metodologias de solubilização e renaturação da mesmas, com recurso a agentes caotrópicos (ureia e GmdCl) e detergentes (SDS).
Resumo:
Os sistemas distribuídos de manufactura (SDM) possuem como principais características a capacidade de executarem processos de manufactura de forma distribuída em ambientes heterogéneos, em que os diversos estágios e parceiros envolvidos funcionam de forma autónoma. Dotados de uma boa capacidade de adaptação a mercados em constante mudança, são sis-temas complexos e dinâmicos, sendo difícil prever o seu desempenho sem abordagens adequadas, nomeadamente, recorrendo a métodos de simulação. No entanto os pacotes de simulação que existem actualmente, apesar de boa qualidade e bastante flexíveis, ainda se caracterizam por uma limitada capacidade para a simulação de SDM. Por outro lado, o desenvolvi-mento duma ferramenta de manufactura que combine a simulação ao nível local de processos de manufactura (por exemplo: com robôs e maquinas industriais) e a correspondente ao nível global e distribuído, revela-se significativamente complexo e oneroso. Ao invés de se desenvolver tal sistema, com este trabalho, pretende-se especificar um modelo e respectiva ferramenta que permita a simulação de SDM, recorrendo a produtos comerciais já existentes, mediante a definição duma estratégia de interoperabilidade entre as ferramentas. A simulação em simultâneo, de forma agregada e em tempo real dos diversos níveis estratégicos e locais de um SDM, permite assim uma melhor estimativa do seu desempenho futuro.
Resumo:
A dactilografia profissional causa problemas a nível das articulações dos dedos, mãos, pulsos, braços e até mesmo ombros, a quem a exerce. Um deles, o Síndrome do Túnel Cárpico, considera-se ser a maior doença ocupacional nos Estados Unidos, responsável por avultados gastos médicos ano após ano. Até à data, o estudo de causas e consequências apresentou-se difícil, não havendo uma forma prática e fiável de registar os movimentos do(a) dactilógrafo(a). O presente trabalho pretendeu desenvolver uma solução para a detecção e cálculo de estatísticas referentes às taxas de utilização de dedos em dactilografia profissional, com vista a estudos de terapias adequadas. Optou-se pela captação de imagens através de uma câmara USB, usando iluminação dedicada para garantir uma intensidade de luz constante e uniforme. Usando esta configuração, são capturadas imagens do teclado no instante em que uma tecla é premida. Após a captura, efectua-se o processamento da imagem para detecção dos dedos. Nos dedos do(a) dactilógrafo(a) colocaram-se autocolantes de várias cores para identificação. Para a identificação do dedo usou-se um algoritmo de lógica difusa para, através dos canais R, G e B da imagem, avaliar qual a cor observada na zona de interesse (tecla premida). Conseguiu-se assim uma eficácia de 91% em modo automático, podendo este valor chegar aos 100% no modo avançado, que permite a confirmação do utilizador. Existe ainda margem para evolução com a introdução de uma segunda câmara com um diferente posicionamento para obter outra perspectiva da zona de interesse, aumentando assim as hipóteses de correcta identificação.
Resumo:
As abordagens de engenharia de requisitos orientada a objetivos oferecem mecanismos que ajudam na elicitação e modelação de requisitos. A presente dissertação centra-se no framework i*, uma das mais importantes linguagens de especificação de modelos de requisitos orientados a objetivos, que conta com grupos de trabalho em mais de vinte países e com sete edições de workshops internacionais. Existem alguns problemas que podem afetar a qualidade de modelos i*. A sua criação pode resultar em modelos complexos e/ou incompletos, assim como incorretos devido ao mau uso da notação do i*. Estes problemas contribuem para a existência de dificuldades na gestão e compreensão dos sistemas de software o que, por sua vez, leva a um aumento dos custos de desenvolvimento. A qualidade dos modelos deve, então, ser uma preocupação constante, por forma a que sejam construídos modelos corretos, completos e cuja complexidade acidental seja minimizada. Não obstante a sua importância, a gestão eficaz destes três aspetos é, ainda, um problema em aberto. Nesta dissertação é proposto um conjunto de métricas para dar suporte à avaliação quantitativa dos atributos de qualidade complexidade, completude e correção nos modelos de requisitos i*. As métricas são definidas seguindo a abordagem Goal-Question- Metric, sendo definidas tanto de modo informal, em língua natural, como formalmente, em OCL (Object Contraint Language), e incorporadas numa ferramenta de modelação i* para que possam ser recolhidas de modo automático. As métricas são avaliadas experimentalmente, através de um conjunto de casos de estudo reais e académicos, e teoricamente, através de propriedades deWeyuker.
Resumo:
A simulação dinâmica de reservatórios de petróleo requer a alocação de permeabilidades equivalentes para todos os blocos. A determinação da permeabilidade equivalente em reservatórios fraturados é uma questão complexa e crítica no fluxograma de modelação, porque é totalmente dependente da geometria 3D sistema de fraturas, e respetivas aberturas, que muitas vezes são mal conhecidos. Para avaliar a permeabilidade equivalente de blocos fraturados, o método do tensor ou de Oda é um dos mais utilizados. É expedito e eficiente mesmo para a sistemas com vários milhões de fraturas. Todavia, na literatura são apontadas algumas críticas, por exemplo, sobrestima a permeabilidade em blocos pouco fraturados e subestima-a em blocos muito fraturados. Este trabalho tem como objetivos, revisitar a problemática da caracterização da permeabilidade equivalente em blocos de reservatórios fraturados. Recorreu-se a um pacote de programas informáticos FROM3D-K (fractures object model – permeability evaluation) desenvolvidos e/ ou adaptados no contexto deste trabalho e que permitem as funcionalidades: (1) simulação estocástica 3D de fraturas; (2) determinação da permeabilidade equivalente pelo método do tensor; (3) determinação da permeabilidade equivalente pelo método de upscaling de microblocos. Estas funções permitem que a mesma rede de fraturas seja avaliada pelos dois métodos. Para a demonstração de resultados mostram-se dois exemplos, o primeiro onde são simuladas fraturas condicionadas a estatísticas sintéticas de orientação, intensidade e abertura e o segundo onde se utilizam dados FMI de poço de um reservatório fraturado.
Resumo:
No processo de desenvolvimento de software, um dos problemas recorrentes é garantir que as expectativas das partes interessadas (stakeholders) estão a ser satisfeitas. Expectativas essas que correspondem ao comportamento do sistema. A disciplina de Engenharia de Requisitos estuda a melhor forma de capturar, especificar, validar e gerir requisitos. No entanto, os modelos utilizados que expressam os comportamentos, muitas das vezes, não são entendidos por parte dos stakeholders. Com a introdução das metodologias ágeis, que se baseiam no princípio de uma colaboração ativa e contínua dos stakeholders durante o desenvolvimento de software, os pressupostos da disciplina de Engenharia de Requisitos foram questionados e fizeram nascer novas práticas. Uma prática que emergiu foi o Desenvolvimento Orientado ao Comportamento (BDD). Surgiu com a finalidade de dar a capacidade aos stakeholders de expressarem, sob a forma textual, o comportamento que desejam para o seu software, de forma simples e sucinta. No entanto, não existindo restrições nem validações automáticas na escrita dos stakeholders, é criada a possibilidade de introdução de ambiguidade e perda de informação quando a equipa de desenvolvimento utiliza os cenários descritos. Dado este problema, propomos uma abordagem em que os stakeholders consigam especificar cenários comportamentais, de forma cognitiva, com uma representação simples, clara e mais precisa. Criamos duas linguagens, o DomainMap e o BehaviorMap, que estão relacionadas entre si: uma para representar modelos de domínio e outra para representar cenários BDD, respetivamente. Foi executada uma experiência com 15 indivíduos para comparar o esforço cognitivo na compreensão entre cenários BehaviorMap e cenários textuais e os resultados mostraram que o BehaviorMap teve melhor desempenho.
Resumo:
Devido ao crescente desenvolvimento das nanotecnologias, estando associadas a melhoria da eficiência energética assim como mais processamento de dados e a redução dos custos, esta dissertação possibilita todo o enquadramento com sistemas modernos ao nível do áudio digital. Tendo como base esta perspetiva, esta dissertação apresenta um sistema de áudio completo desde a fonte do sinal digital no PC até ao sinal analógico no altifalante. O sistema é constituído pelos seguintes módulos: a interface do utilizador no PC, o Processador Digital de Sinais (DSP), o amplificador digital e os altifalantes. O sistema é baseado na amplificação de classe D controlada por um modulador sigma delta (ΣΔM) digital. São abordadas as técnicas utilizadas e os cuidados a ter em conta em cada módulo, tendo como principal objetivo uma boa qualidade de áudio. Diferentes arquiteturas ΣΔM são primeiramente analisadas por simulações para validar a estabilidade e a funcionalidade, seguidamente são implementadas ao nível físico no protótipo para qualificar algumas medições elétricas e testes acústicos básicos. Depois de selecionados os ΣΔM mais promissores, o sistema foi avaliado pela análise de alguns testes elétricos de alto nível assim como gravações do sinal de áudio em um ambiente de estúdio controlado. Os resultados acústicos são comparados com um sistema de estúdio com reconhecimento no mercado. As medições finais do protótipo revelaram valores do rendimento de até 72%, a SNR na saída do amplificador digital de 73 dB através da leitura com o Audio Precision ATS-2, com uma THD de -75 dB e uma gama dinâmica (DR) de 75 dB. A tensão de alimentação pode ir dos 5 aos 12 Volt, utilizando uma metodologia H-bridge na saída do amplificador, e podendo ser aplicada uma carga mínima de 4 Ohm. O sistema desenvolvido demonstra-se promissor e possibilita melhorias através de otimização de cada elemento em particular, desde adicionar capacidades ao DSP através de novo firmware, ou melhorar a potência do amplificador digital consoante os requisitos da aplicação.