48 resultados para Produtividade : Software
em Instituto Politécnico do Porto, Portugal
Resumo:
O objetivo deste trabalho é o desenvolvimento de frameworks de testes automáticos de software. Este tipo de testes normalmente está associado ao modelo evolucionário e às metodologias ágeis de desenvolvimento de software, enquanto que os testes manuais estão relacionados com o modelo em cascata e as metodologias tradicionais. Como tal foi efetuado um estudo comparativo sobre os tipos de metodologias e de testes existentes, para decidir quais os que melhor se adequavam ao projeto e dar resposta à questão "Será que realmente compensa realizar testes (automáticos)?". Finalizado o estudo foram desenvolvidas duas frameworks, a primeira para a implementação de testes funcionais e unitários sem dependências a ser utilizada pelos estagiários curriculares da LabOrders, e a segunda para a implementação de testes unitários com dependências externas de base de dados e serviços, a ser utilizada pelos funcionários da empresa. Nas últimas duas décadas as metodologias ágeis de desenvolvimento de software não pararam de evoluir, no entanto as ferramentas de automação não conseguiram acompanhar este progresso. Muitas áreas não são abrangidas pelos testes e por isso alguns têm de ser feitos manualmente. Posto isto foram criadas várias funcionalidades inovadoras para aumentar a cobertura dos testes e tornar as frameworks o mais intuitivas possível, nomeadamente: 1. Download automático de ficheiros através do Internet Explorer 9 (e versões mais recentes). 2. Análise do conteúdo de ficheiros .pdf (através dos testes). 3. Obtenção de elementos web e respetivos atributos através de código jQuery utilizando a API WebDriver com PHP bindings. 4. Exibição de mensagens de erro personalizadas quando não é possível encontrar um determinado elemento. As frameworks implementadas estão também preparadas para a criação de outros testes (de carga, integração, regressão) que possam vir a ser necessários no futuro. Foram testadas em contexto de trabalho pelos colaboradores e clientes da empresa onde foi realizado o projeto de mestrado e os resultados permitiram concluir que a adoção de uma metodologia de desenvolvimento de software com testes automáticos pode aumentar a produtividade, reduzir as falhas e potenciar o cumprimento de orçamentos e prazos dos projetos das organizações.
Resumo:
Since the last decade research in Group Decision Making area have been focus in the building of meeting rooms that could support the decision making task and improve the quality of those decisions. However the emergence of Ambient Intelligence concept contributes with a new perspective, a different way of viewing traditional decision rooms. In this paper we will present an overview of Smart Decision Rooms providing Intelligence to the meeting environment, and we will also present LAID, an Ambient Intelligence Environment oriented to support Group Decision Making and some of the software tools that we already have installed in this environment.
Resumo:
Introduction Myocardial Perfusion Imaging (MPI) is a very important tool in the assessment of Coronary Artery Disease ( CAD ) patient s and worldwide data demonstrate an increasingly wider use and clinical acceptance. Nevertheless, it is a complex process and it is quite vulnerable concerning the amount and type of possible artefacts, some of them affecting seriously the overall quality and the clinical utility of the obtained data. One of the most in convenient artefacts , but relatively frequent ( 20% of the cases ) , is relate d with patient motion during image acquisition . Mostly, in those situations, specific data is evaluated and a decisi on is made between A) accept the results as they are , consider ing that t he “noise” so introduced does not affect too seriously the final clinical information, or B) to repeat the acquisition process . Another possib ility could be to use the “ Motion Correcti on Software” provided within the software package included in any actual gamma camera. The aim of this study is to compare the quality of the final images , obtained after the application of motion correction software and after the repetition of image acqui sition. Material and Methods Thirty cases of MPI affected by Motion Artefacts and repeated , were used. A group of three, independent (blinded for the differences of origin) expert Nuclear Medicine Clinicians had been invited to evaluate the 30 sets of thre e images - one set for each patient - being ( A) original image , motion uncorrected , (B) original image, motion corrected, and (C) second acquisition image, without motion . The results so obtained were statistically analysed . Results and Conclusion Results obtained demonstrate that the use of the Motion Correction Software is useful essentiall y if the amplitude of movement is not too important (with this specific quantification found hard to define precisely , due to discrepancies between clinicians and other factors , namely between one to another brand); when that is not the case and the amplitude of movement is too important , the n the percentage of agreement between clinicians is much higher and the repetition of the examination is unanimously considered ind ispensable.
Resumo:
Este trabalho teve como objectivo a optimização das condições de crescimento de biomassa algal tendo em vista a sua utilização como fonte de lípidos para biocombustíveis. Assim, procedeu-se à inoculação de duas estirpes, a Dunaliella tertiolecta (água salgada) e a Tetraselmis subcordiformis (água salobra), seleccionando-se a Dunaliella tertiolecta uma vez que esta apresentou um crescimento mais rápido. Escolhida a estirpe a usar, avaliou-se a influência da composição do meio de cultura da espécie, variando-se a concentração de macronutrientes (Magnésio, Potássio, Azoto, Fósforo) e de micronutrientes (Manganês, Zinco, Ferro, Cobalto) presentes no meio em 10 e 20 vezes, comparativamente à do meio de cultura padrão, o meio Artificial Seawater Medium with Vitamins. Avaliou-se o crescimento algal, a uma temperatura de 25 ºC ± 2 ºC, com uma intensidade de iluminação de 5000 lux (lâmpadas luz dia) e fotoperíodos 12:12 h, controlando possíveis contaminações nas culturas em estudo. Para os ensaios realizados com a Dunaliella tertiolecta, os melhores resultados para a produtividade média e máxima de biomassa, 63,06 mgbiomassa seca/L.dia e 141,79 mgbiomassa seca/L.dia, respectivamente, foram obtidos no ensaio em que se fez variar 10 vezes a concentração de azoto (sob a forma de nitrato). Os resultados mais satisfatórios para o teor lípidico e para a produtividade lipídica máxima, 33,45% e 47,43 mgóleo/L.dia respectivamente, também foram obtidos no ensaio em que se fez variar 10 vezes a concentração de azoto (sob a forma de nitrato), (com extracção dos lípidos usando o método de Bligh e Dyer). Foram testados dois solventes para a extracção de lipídos, o clorofórmio e o hexano, tendose obtido resultados superiores com o clorofórmio, comparativamente aos obtidos quando se usou hexano, com excepção do ensaio em que se aumentou 20 vezes a concentração de fósforo no meio de cultura das microalgas. Verificou-se que, em todos os ensaios foi atingido o estado estacionário sensivelmente na mesma altura, isto é, decorridos cerca de 25 dias após o início do estudo, excepto os ensaios em que se fez variar a concentração de cobalto, para os quais as culturas não se adaptaram às alterações do meio, acabando por morrer passados 15 dias. A adição dos macronutrientes e micronutrientes usados nos ensaios, nas quantidades testadas, não influenciou significativamente a produtividade lipídica, com excepção do azoto e ferro. Conclui-se que o aumento da concentração de azoto para 10x o valor padrão potencia o aumento da produtividade lipídica máxima para mais do dobro (3,6 vezes – Padrão: 13,25 mgóleo/L.dia; 10x N: 47,43 mgóleo/L.dia) e que o aumento da concentração de ferro para 10x o valor padrão potencia o aumento da produtividade lipídica máxima para aproximadamente o dobro (1,9 vezes - Padrão: 14,61 mgóleo/L.dia; 10x Fe: 28,04 mgóleo/L.dia). Nos ensaios realizados com adição de azoto ou ferro, os resultados obtidos para a concentração, teor lípidico e produtividade lipídica máxima, foram sempre superiores aos do padrão correspondente, pelo que se pode concluir que estes ensaios se apresentam como os mais promissores deste estudo, embora o ensaio mais satisfatório tenha sido aquele em que se promoveu a alteração da concentração de azoto para 10 vezes o valor padrão.
Resumo:
O aumento da população Mundial, particularmente em Países emergentes como é o caso da China e da Índia, tem-se relevado um problema adicional no que confere às dificuldades associadas ao consumo mundial de energia, pois esta situação limita inequivocamente o acesso destes milhões de pessoas à energia eléctrica para os bens básicos de sobrevivência. Uma das muitas formas de se extinguir esta necessidade, começa a ser desenvolvida recorrendo ao uso de recursos renováveis como fontes de energia. Independentemente do local do mundo onde nos encontremos, essas fontes de energia são abundantes, inesgotáveis e gratuitas. O problema reside na forma como esses recursos renováveis são geridos em função das solicitações de carga que as instalações necessitam. Sistemas híbridos podem ser usados para produzir energia em qualquer parte do mundo. Historicamente este tipo de sistemas eram aplicados em locais isolados, mas nos dias que correm podem ser usados directamente conectados à rede, permitindo que se realize a venda de energia. Foi neste contexto que esta tese foi desenvolvida, com o objectivo de disponibilizar uma ferramenta informática capaz de calcular a rentabilidade de um sistema híbrido ligado à rede ou isolado. Contudo, a complexidade deste problema é muito elevada, pois existe uma extensa panóplia de características e distintos equipamentos que se pode adoptar. Assim, a aplicação informática desenvolvida teve de ser limitada e restringida aos dados disponíveis de forma a poder tornar-se genérica, mas ao mesmo tempo permitir ter uma aplicabilidade prática. O objectivo da ferramenta informática desenvolvida é apresentar de forma imediata os custos da implementação que um sistema híbrido pode acarretar, dependendo apenas de três variáveis distintas. A primeira variável terá de ter em consideração o local de instalação do sistema. Em segundo lugar é o tipo de ligação (isolado ou ligado à rede) e, por fim, o custo dos equipamentos (eólico, solar e restantes componentes) que serão introduzidos. Após a inserção destes dados a aplicação informática apresenta valores estimados de Payback e VAL.
Resumo:
Não é recente a contribuição das tecnologias de informação e comunicação em processos de ensino/aprendizagem, no sentido da proliferação de conhecimento, de forma fácil e rápida. Com a contínua evolução tecnológica, surgem novos conceitos relativamente a processos de ensino/aprendizagem assentes nessas tecnologias. A aprendizagem por meio de dispositivos móveis, o m-Learning, é um exemplo, sendo um campo de investigação educacional em franca evolução, que explora essencialmente a mobilidade e a interactividade. No âmbito desta dissertação, pretende-se analisar a tecnologia m-Learning, fazendo referência as principais vantagens e desvantagens desta tecnologia. Neste sentido, e por pretendermos dar o nosso contributo ao ensino cabo-verdiano, onde a utilização de tal tecnologia é ainda inexistente, desenvolveu-se a aplicação CV Learning Mobile, um software educativo sobre a “Organização Administrativa de Cabo Verde”, como resultado do estudo efectuado.
Resumo:
A Internet causou uma revolução em grande parte dos processos das empresas, criando oportunidades e gerando necessidades até então desconhecidas. Os Sistemas de Informação, ferramentas indispensáveis para uma gestão moderna das actividades empresariais, também foram influenciados pela evolução constante da tecnologia e as facilidades oferecidas para a popularização do uso da Internet. Rumo a uma crescente necessidade de modernização, rapidez, agilidade, eficiência e eficácia que são exigidos das actividades da empresa, actualmente, a tecnologia da Web é exibida como uma opção viável para melhorar o desempenho na gestão da informação. Esta Tese procura dissertar acerca dos aspectos relativos ao funcionamento e implementação de Serviços Web, suas principais características, vantagens e desvantagens comparativamente aos sistemas de informação tradicionais. Os objectivos propostos podem ser sintetizados no conhecimento e descrição das funcionalidades dos Serviços Web, no estudo da situação actual, na identificação das características que potenciam a capacidade de evolução dos Serviços Web, no estudo e desempenho dos Serviços Web, e finalmente, no estudo e análise da especificação Segurança.
Resumo:
As unidades de cuidados intensivos (UCI), são das áreas hospitalares que mais dinheiro consomem nas instituições públicas. As funções dos profissionais de saúde são imprescindíveis, mas também a logística e gestão são de vital importância e como tal, têm de ser avaliadas. Por isso, todos os indicadores – clínicos, económico-financeiros, recursos humanos, produtividade, qualidade - são importantes para que a gestão possa, dinâmica e oportunamente, ter informação útil para a tomada de decisões. Assim, a garantia de uma gestão eficiente dos recursos é cada vez mais importante de forma a satisfazer não só os pacientes como toda a estrutura hospitalar. Nos tempos que correm, e com a situação socioeconómica de crise que se vive, é de extrema importância saber com o maior nível de detalhe possível, com que recursos se pode contar. É importante quantificar de forma eficaz e eficiente como são utilizados os recursos, para satisfazer com o maior nível de qualidade possível um paciente que entre numa UCI. Para tal, a utilização de sistemas de informação (SI) e das ferramentas indicadas na gestão de uma unidade hospitalar, são de grande importância. Nesta tese, é proposta uma ferramenta, que seja simples e de fácil utilização, desenvolvida com recurso a tecnologia ROLAP para a extracção e análise de indicadores numa UCI, e que possa ser facilmente integrada num software de gestão do dia-a-dia.
Resumo:
Este trabalho pretende avaliar e melhorar o modo de execução da aplicação da técnica de rebentamento com explosivos, aumentando a fragmentação e reduzindo o custo no conjunto das operações de perfuração, carga, detonação e fragmentação secundária e compreender a influência na variação do custo das operações face às melhorias adoptadas. A investigação foi executada na pedreira da Mota-Engil, Engenharia S.A. ‘’ Bouça do Menino’’ Vila Verde, Cervães, tendo os dados iniciais sido recolhidos em 2004 (ano de referência) e comparados com os seguintes 4 anos. A perfuração é geralmente um dos principais factores que influenciam o resultado de um rebentamento, já que do seu rigor pode depender a eficiência do explosivo. Hoje em dia, para além da adequação dos métodos de execução ao local a fragmentar, existem ferramentas que nos permitem visualizar com rigor as circunstâncias em que se desenvolvem os trabalhos, nomeadamente as utilizadas pelos equipamentos de perfuração para controlo de profundidade, inclinação e direcção, a utilização de feixes ‘’laser’’ que nos permitem manter o nivelamento das plataformas, o ‘’laser’’ profile que nos ajuda a definir o posicionamento e inclinação dos furos relativamente à frente livre antes de executar a perfuração, ou ainda, a utilização de equipamentos de registo de coordenadas que nos permitem verificar o posicionamento do furo após a sua execução e decidir sobre a sua utilização mais correcta em função da sua posição. A utilização destas ferramentas associadas a um ‘’software’’ de desenho é ainda uma excelente ferramenta de formação para os operadores da perfuração e utilização dos explosivos, já que permite visualizar e compreender a relação da posição dos furos com o resultado do rebentamento.
Resumo:
The Robuter is a robotic mobile platform that is located in the “Hands-On” Laboratory of the IPP-Hurray! Research Group, at the School of Engineering of the Polytechnic Institute of Porto. Recently, the Robuter was subject of an upgrading process addressing two essential areas: the Hardware Architecture and the Software Architecture. This upgrade in process was triggered due to technical problems on-board of the robot and also to the fact that the hardware/software architecture has become obsolete. This Technical Report overviews the most important aspects of the new Hardware and Software Architectures of the Robuter. This document also presents a first approach on the first steps towards the use of the Robuter platform, and provides some hints on future work that may be carried out using this mobile platform.
Resumo:
A partir da década de noventa do século passado, começaram a surgir no mercado ferramentas de cálculo com o objetivo de agilizar a conceção do projeto de engenharia da construção. Até ao final da década de setenta os computadores existentes eram enormes, apenas entidades de grande poder económico os podiam adquirir. Na década de oitenta surgiu no mercado o PC, Personal Computer, estas pequenas máquinas começaram a ser adquiridas pela generalidade das empresas e em Portugal no final desta década era possível encontrar indivíduos que já possuíam o seu PC. Na década de noventa, a saída de recém-formados das instituições de ensino superior, fomentou no mercado o aparecimento de empresas de informática dedicadas à conceção de software de acordo com as necessidades do próprio mercado, daí resultando software comercial à medida e software comercial de prateleira (COTS, Commercial Off-The-Shelf)). O software comercial, ao ser utilizado por um grande número de pessoas, atingindo facilmente, no caso do COTS, os milhares, tem condições para evoluir de acordo com as exigências sistemáticas do próprio mercado, atingindo elevados patamares no cumprimento de requisitos de qualidade, nomeadamente no que concerne à funcionalidade, fiabilidade, usabilidade, manutenibilidade, eficiência, portabilidade e qualidade na utilização. A utilização de software comercial na área do projeto de engenharia da construção é hoje em dia uma prática absolutamente generalizada. A seleção do software pode tornar-se um processo complexo especialmente naquelas áreas em que existe grande oferta. A utilização de critérios de avaliação bem definidos poderá agilizar o processo e dar maiores garantias no momento da decisão final. Neste documento apresenta-se uma proposta de metodologia para avaliação e comparação de softwares.
Resumo:
The recent trends of chip architectures with higher number of heterogeneous cores, and non-uniform memory/non-coherent caches, brings renewed attention to the use of Software Transactional Memory (STM) as a fundamental building block for developing parallel applications. Nevertheless, although STM promises to ease concurrent and parallel software development, it relies on the possibility of aborting conflicting transactions to maintain data consistency, which impacts on the responsiveness and timing guarantees required by embedded real-time systems. In these systems, contention delays must be (efficiently) limited so that the response times of tasks executing transactions are upper-bounded and task sets can be feasibly scheduled. In this paper we assess the use of STM in the development of embedded real-time software, defending that the amount of contention can be reduced if read-only transactions access recent consistent data snapshots, progressing in a wait-free manner. We show how the required number of versions of a shared object can be calculated for a set of tasks. We also outline an algorithm to manage conflicts between update transactions that prevents starvation.
Resumo:
The foreseen evolution of chip architectures to higher number of, heterogeneous, cores, with non-uniform memory and non-coherent caches, brings renewed attention to the use of Software Transactional Memory (STM) as an alternative to lock-based synchronisation. However, STM relies on the possibility of aborting conflicting transactions to maintain data consistency, which impacts on the responsiveness and timing guarantees required by real-time systems. In these systems, contention delays must be (efficiently) limited so that the response times of tasks executing transactions are upperbounded and task sets can be feasibly scheduled. In this paper we defend the role of the transaction contention manager to reduce the number of transaction retries and to help the real-time scheduler assuring schedulability. For such purpose, the contention management policy should be aware of on-line scheduling information.
Resumo:
Consider a multihop network comprising Ethernet switches. The traffic is described with flows and each flow is characterized by its source node, its destination node, its route and parameters in the generalized multiframe model. Output queues on Ethernet switches are scheduled by static-priority scheduling and tasks executing on the processor in an Ethernet switch are scheduled by stride scheduling. We present schedulability analysis for this setting.