983 resultados para Certificação de software
Resumo:
No panorama atual do desenvolvimento de software educativo é importante que os processos de desenvolvimento sejam adequados e compatíveis com o contexto em que serão utilizados este tipo de recursos. Desta forma, é importante melhorar continuamente os processos de desenvolvimento bem como se proceder à avaliação de forma a garantir a sua qualidade e viabilidade económica. Este estudo propõe uma Metodologia Híbrida de Desenvolvimento Centrado no Utilizador (MHDCU) aplicada ao software educativo. Trata-se de um processo de desenvolvimento simples, iterativo e incremental que tem como “alicerces” princípios do Design Centrado no Utilizador, especificados na International Organization for Standardization - ISO 13407. Na sua base encontra-se a estrutura disciplinada de processos de desenvolvimento, bem como práticas e valores dos métodos ágeis de desenvolvimento de software. O processo é constituído por 4 fases principais: planeamento (guião didático), design (storyboard), implementação e manutenção/operação. A prototipagem e a avaliação são realizadas de modo transversal a todo o processo. A metodologia foi implementada numa Pequena e Média Empresa de desenvolvimento de recursos educacionais, com o objetivo de desenvolver recursos educacionais com qualidade reconhecida e simultaneamente viáveis do ponto de vista económico. O primeiro recurso que teve por base a utilização desta metodologia foi o Courseware Sere – “O Ser Humano e os Recursos Naturais”. O trabalho seguiu uma metodologia de investigação & desenvolvimento, de natureza mista, em que se pretendeu descrever e analisar/avaliar uma metodologia de desenvolvimento de software educativo, i.e., o processo, bem como o produto final. O estudo é fundamentalmente descritivo e exploratório. A metodologia de desenvolvimento do software (primeira questão de investigação) foi proposta, essencialmente, com base na revisão integrativa da literatura da especialidade e com base nos resultados que emergiram das Fases 2 e 3. Do ponto de vista exploratório, foi avaliado, por um lado, o potencial técnico e didático da 1ª versão do software inserido no Courseware Sere (segunda questão de investigação), e, por outro lado, analisar os pontos fortes e as fragilidades da metodologia utilizada para o seu desenvolvimento (terceira questão de investigação). Como técnicas de recolha de dados recorreu-se a dois inquéritos por questionário e à observação direta participante (mediada pela plataforma moodle). Quanto às técnicas de análise de dados optou-se pela análise estatística descritiva e pela análise de conteúdo. Os resultados indicam que o recurso desenvolvido possui qualidade técnica e didática. Relativamente a análise da Metodologia Híbrida de desenvolvimento Centrado no Utilizador foram propostas algumas melhorias relacionadas com o envolvimento do utilizador e introdução de novos métodos. Apesar de identificadas algumas limitações, este projeto permitiu que a empresa melhorasse significativamente os processos de desenvolvimento de recursos (mesmo os que não são informatizados), bem como permitiu o aumento do seu portefólio com o desenvolvimento do Courseware Sere.
Resumo:
Actualmente, uma das principais preocupações educativas centra-se na adaptação do ensino às características da sociedade moderna, em constante mutação, que requer o desenvolvimento de competências (Perrenoud, 1999), entre as quais a capacidade de aprender ao longo da vida (European Commission, 2007). No caso português, esta preocupação tem conduzido à valorização das competências adquiridas em contextos de aprendizagem não formais e informais, através do Sistema Nacional de Reconhecimento, Validação e Certificação de Competências (RVCC). O nosso conhecimento sobre o Sistema tem revelado que algumas das principais dificuldades dos adultos que o frequentam decorrem de lacunas graves na expressão/produção escrita, que desempenha um papel relevante no processo. Combinando aspectos de investigação-acção com um design investigativo de estudo de caso, o nosso trabalho centrou-se numa intervenção didáctica, que partiu da identificação e caraterização de competências e de lacunas em expressão/produção escrita em língua materna de um grupo de adultos a frequentar o Sistema RVCC (Nível Secundário) para a subsequente conceção, implementação e avaliação de estratégias/instrumentos para desenvolver as competências em falta. Foram recolhidos dados relativos ao desempenho dos adultos através de tarefas integradas no Portefólio Reflexivo de Aprendizagem, em três fases distintas, para posterior análise de conteúdo. Foram, ainda, recolhidas e analisadas as representações dos adultos sobre as competências que julgavam deter neste domínio, por se tratar de um fator determinante no processo. Neste caso, a recolha de dados fez-se através da aplicação de um questionário inicial e um outro no final da intervenção didáctica, que foram objecto de análise qualitativa.
Resumo:
O presente trabalho tem por objectivo estudar a caracterização e modelação de arquitecturas de rádio frequência para aplicações em rádios definidos por software e rádios cognitivos. O constante aparecimento no mercado de novos padrões e tecnologias para comunicações sem fios têm levantado algumas limitações à implementação de transceptores rádio de banda larga. Para além disso, o uso de sistemas reconfiguráveis e adaptáveis baseados no conceito de rádio definido por software e rádio cognitivo assegurará a evolução para a próxima geração de comunicações sem fios. A ideia base desta tese passa por resolver alguns problemas em aberto e propor avanços relevantes, tirando para isso partido das capacidades providenciadas pelos processadores digitais de sinal de forma a melhorar o desempenho global dos sistemas propostos. Inicialmente, serão abordadas várias estratégias para a implementação e projecto de transceptores rádio, concentrando-se sempre na aplicabilidade específica a sistemas de rádio definido por software e rádio cognitivo. Serão também discutidas soluções actuais de instrumentação capaz de caracterizar um dispositivo que opere simultaneamente nos domínios analógico e digital, bem como, os próximos passos nesta área de caracterização e modelação. Além disso, iremos apresentar novos formatos de modelos comportamentais construídos especificamente para a descrição e caracterização não-linear de receptores de amostragem passa-banda, bem como, para sistemas nãolineares que utilizem sinais multi-portadora. Será apresentada uma nova arquitectura suportada na avaliação estatística dos sinais rádio que permite aumentar a gama dinâmica do receptor em situações de multi-portadora. Da mesma forma, será apresentada uma técnica de maximização da largura de banda de recepção baseada na utilização do receptor de amostragem passa-banda no formato complexo. Finalmente, importa referir que todas as arquitecturas propostas serão acompanhadas por uma introdução teórica e simulações, sempre que possível, sendo após isto validadas experimentalmente por protótipos laboratoriais.
Resumo:
Flexible radio transmitters based on the Software-Defined Radio (SDR) concept are gaining an increased research importance due to the unparalleled proliferation of new wireless standards operating at different frequencies, using dissimilar coding and modulation schemes, and targeted for different ends. In this new wireless communications paradigm, the physical layer of the radio transmitter must be able to support the simultaneous transmission of multi-band, multi-rate, multi-standard signals, which in practice is very hard or very inefficient to implement using conventional approaches. Nevertheless, the last developments in this field include novel all-digital transmitter architectures where the radio datapath is digital from the baseband up to the RF stage. Such concept has inherent high flexibility and poses an important step towards the development of SDR-based transmitters. However, the truth is that implementing such radio for a real world communications scenario is a challenging task, where a few key limitations are still preventing a wider adoption of this concept. This thesis aims exactly to address some of these limitations by proposing and implementing innovative all-digital transmitter architectures with inherent higher flexibility and integration, and where improving important figures of merit, such as coding efficiency, signal-to-noise ratio, usable bandwidth and in-band and out-of-band noise will also be addressed. In the first part of this thesis, the concept of transmitting RF data using an entirely digital approach based on pulsed modulation is introduced. A comparison between several implementation technologies is also presented, allowing to state that FPGAs provide an interesting compromise between performance, power efficiency and flexibility, thus making them an interesting choice as an enabling technology for pulse-based all-digital transmitters. Following this discussion, the fundamental concepts inherent to pulsed modulators, its key advantages, main limitations and typical enhancements suitable for all-digital transmitters are also presented. The recent advances regarding the two most common classes of pulse modulated transmitters, namely the RF and the baseband-level are introduced, along with several examples of state-of-the-art architectures found on the literature. The core of this dissertation containing the main developments achieved during this PhD work is then presented and discussed. The first key contribution to the state-of-the-art presented here consists in the development of a novel ΣΔ-based all-digital transmitter architecture capable of multiband and multi-standard data transmission in a very flexible and integrated way, where the pulsed RF output operating in the microwave frequency range is generated inside a single FPGA device. A fundamental contribution regarding the simultaneous transmission of multiple RF signals is then introduced by presenting and describing novel all-digital transmitter architectures that take advantage of multi-gigabit data serializers available on current high-end FPGAs in order to transmit in a time-interleaved approach multiple independent RF carriers. Further improvements in this design approach allowed to provide a two-stage up-conversion transmitter architecture enabling the fine frequency tuning of concurrent multichannel multi-standard signals. Finally, further improvements regarding two key limitations inherent to current all-digital transmitter approaches are then addressed, namely the poor coding efficiency and the combined high quality factor and tunability requirements of the RF output filter. The followed design approach based on poliphase multipath circuits allowed to create a new FPGA-embedded agile transmitter architecture that significantly improves important figures of merit, such as coding efficiency and SNR, while maintains the high flexibility that is required for supporting multichannel multimode data transmission.
Resumo:
When developing software for autonomous mobile robots, one has to inevitably tackle some kind of perception. Moreover, when dealing with agents that possess some level of reasoning for executing their actions, there is the need to model the environment and the robot internal state in a way that it represents the scenario in which the robot operates. Inserted in the ATRI group, part of the IEETA research unit at Aveiro University, this work uses two of the projects of the group as test bed, particularly in the scenario of robotic soccer with real robots. With the main objective of developing algorithms for sensor and information fusion that could be used e ectively on these teams, several state of the art approaches were studied, implemented and adapted to each of the robot types. Within the MSL RoboCup team CAMBADA, the main focus was the perception of ball and obstacles, with the creation of models capable of providing extended information so that the reasoning of the robot can be ever more e ective. To achieve it, several methodologies were analyzed, implemented, compared and improved. Concerning the ball, an analysis of ltering methodologies for stabilization of its position and estimation of its velocity was performed. Also, with the goal keeper in mind, work has been done to provide it with information of aerial balls. As for obstacles, a new de nition of the way they are perceived by the vision and the type of information provided was created, as well as a methodology for identifying which of the obstacles are team mates. Also, a tracking algorithm was developed, which ultimately assigned each of the obstacles a unique identi er. Associated with the improvement of the obstacles perception, a new algorithm of estimating reactive obstacle avoidance was created. In the context of the SPL RoboCup team Portuguese Team, besides the inevitable adaptation of many of the algorithms already developed for sensor and information fusion and considering that it was recently created, the objective was to create a sustainable software architecture that could be the base for future modular development. The software architecture created is based on a series of di erent processes and the means of communication among them. All processes were created or adapted for the new architecture and a base set of roles and behaviors was de ned during this work to achieve a base functional framework. In terms of perception, the main focus was to de ne a projection model and camera pose extraction that could provide information in metric coordinates. The second main objective was to adapt the CAMBADA localization algorithm to work on the NAO robots, considering all the limitations it presents when comparing to the MSL team, especially in terms of computational resources. A set of support tools were developed or improved in order to support the test and development in both teams. In general, the work developed during this thesis improved the performance of the teams during play and also the e ectiveness of the developers team when in development and test phases.
Resumo:
The main motivation for the work presented here began with previously conducted experiments with a programming concept at the time named "Macro". These experiments led to the conviction that it would be possible to build a system of engine control from scratch, which could eliminate many of the current problems of engine management systems in a direct and intrinsic way. It was also hoped that it would minimize the full range of software and hardware needed to make a final and fully functional system. Initially, this paper proposes to make a comprehensive survey of the state of the art in the specific area of software and corresponding hardware of automotive tools and automotive ECUs. Problems arising from such software will be identified, and it will be clear that practically all of these problems stem directly or indirectly from the fact that we continue to make comprehensive use of extremely long and complex "tool chains". Similarly, in the hardware, it will be argued that the problems stem from the extreme complexity and inter-dependency inside processor architectures. The conclusions are presented through an extensive list of "pitfalls" which will be thoroughly enumerated, identified and characterized. Solutions will also be proposed for the various current issues and for the implementation of these same solutions. All this final work will be part of a "proof-of-concept" system called "ECU2010". The central element of this system is the before mentioned "Macro" concept, which is an graphical block representing one of many operations required in a automotive system having arithmetic, logic, filtering, integration, multiplexing functions among others. The end result of the proposed work is a single tool, fully integrated, enabling the development and management of the entire system in one simple visual interface. Part of the presented result relies on a hardware platform fully adapted to the software, as well as enabling high flexibility and scalability in addition to using exactly the same technology for ECU, data logger and peripherals alike. Current systems rely on a mostly evolutionary path, only allowing online calibration of parameters, but never the online alteration of their own automotive functionality algorithms. By contrast, the system developed and described in this thesis had the advantage of following a "clean-slate" approach, whereby everything could be rethought globally. In the end, out of all the system characteristics, "LIVE-Prototyping" is the most relevant feature, allowing the adjustment of automotive algorithms (eg. Injection, ignition, lambda control, etc.) 100% online, keeping the engine constantly working, without ever having to stop or reboot to make such changes. This consequently eliminates any "turnaround delay" typically present in current automotive systems, thereby enhancing the efficiency and handling of such systems.
Resumo:
A computer system's security can be compromised in many ways—a denial-of-service attack can make a server inoperable, a worm can destroy a user's private data, or an eavesdropper can reap financial rewards by inserting himself in the communication link between a customer and her bank through a man-in-the-middle (MITM) attack. What all these scenarios have in common is that the adversary is an untrusted entity that attacks a system from the outside—we assume that the computers under attack are operated by benign and trusted users. But if we remove this assumption, if we allow anyone operating a computer system—from system administrators down to ordinary users—to compromise that system's security, we find ourselves in a scenario that has received comparatively little attention.
Resumo:
En el contexto del libre acceso a la información y la democratización del conocimiento, el presente artículo se enfoca en describir el estado actual de algunas propuestas relacionadas con la cooperación y el intercambio mundial de información surgidas a partir del siglo XX, pero sobre todo en el movimiento del software libre, fenómeno que se perfila como un modelo de desarrollo informacional acorde con los movimientos culturales de nuestros días y cuyos principios –se augura– pueden llegar a ser la base para la creación de un ciberespacio público, apoyado en servicios de información a bajo costo y repositorios digitales de alcance mundial.
Resumo:
El presente trabajo tiene por objetivo exponer los fundamentos éticos y tecnológicos que caracterizan al movimiento del software libre, así como su cercana relación que tiene con el mundo de la gestión bibliotecaria y de la información. También se presentan algunas de las principales herramientas libres que existen para la administración de bibliotecas, al tiempo que se muestran los alcances y posibilidades que éstas y otras herramientas poseen para la creación de sistemas de información a bajo costo y repositorios documentales acordes con el movimiento mundial de Open Access.
Resumo:
Dissertação de Mestrado, Biologia Marinha, Especialização em Biotecnologia Marinha, Faculdade de Ciências do Mar e do Ambiente, Universidade do Algarve, 2008
Resumo:
Dissertação mest., Engenharia do Ambiente, Universidade do Algarve, 2009
Resumo:
In this paper, an open source solution for measurement of temperature and ultrasonic signals (RF-lines) is proposed. This software is an alternative to the expensive commercial data acquisition software, enabling the user to tune applications to particular acquisition architectures. The collected ultrasonic and temperature signals were used for non-invasive temperature estimation using neural networks. The existence of precise temperature estimators is an essential point aiming at the secure and effective applica tion of thermal therapies in humans. If such estimators exist then effective controllers could be developed for the therapeutic instrumentation. In previous works the time-shift between RF-lines echoes were extracted, and used for creation of neural networks estimators. The obtained estimators successfully represent the temperature in the time-space domain, achieving a maximum absolute error inferior to the threshold value defined for hyperthermia/diathermia applications.
Resumo:
Dissertação de mest., Engenharia do Ambiente (Avaliação e Gestão Ambiental), Faculdade de Ciências e Tecnologia, Univ. do Algarve, 2011
Resumo:
O Programa Novas Oportunidades valoriza a Aprendizagem ao Longo da Vida (ALV). Algumas pessoas que abandonaram a escola vêem, na actualidade, certificadas as suas competências, ao frequentarem o Processo RVCC. Através do estudo ―Representações/Expectativas sobre o Processo de Reconhecimento, Validação e Certificação de Competências (RVCC): Da utopia à realidade, pretendemos saber as representações/expectativas iniciais que os sujeitos possuíam e se estas, no final, se viram confirmadas. As opiniões sobre o processo, após a sua conclusão, foi um dos vectores tido em atenção. Verificou-se que, de entre as várias motivações para a inscrição no processo RVCC, as principais se prendem com a vontade dos adultos continuarem os estudos depois de terem parado, o desejo de aprenderem mais/saber coisas novas, a Progressão no emprego e Mais possibilidades de escolher o tipo de emprego. As razões da opção pelo processo RVCC fundamentam-se no facto de se tratar de um Processo de valorização de conhecimentos e por ser rápido, havendo outras razões menos abordadas. As relacionadas com a sua rapidez e facilidade encontram-se depen-dentes, respectivamente, das variáveis idade e género. A valorização profissional e a progressão nos estudos constituem as principais expectativas que os sujeitos possuíam anteriormente. As expectativas iniciais viram-se muito (61,11%) e muitíssimo (23,15%) confirmadas. O Reconhecimento do saber experiencial e as Valorizações académica e pessoal foram aspectos importantes para que tal acontecesse. No final, os adultos opinam favoravelmente sobre o processo, enfatizando as metodologias, a gratificação sentida, a reflexão sobre as aprendizagens e a melhoria da auto- -estima. Salientam que a frequência do processo lhes trouxe mudanças académicas e pessoais. No contexto profissional são menos notórias, conquanto seja expectável que ocorram melhorias.
Resumo:
O aumento significativo de patologias relacionadas com a alimentação, designadamente a obesidade, considerada pela Organização Mundial de Saúde como a “epidemia do século XXI”, remete o profissional da área da nutrição para a necessidade de uma intervenção cada vez mais eficiente. O objectivo deste estudo é avaliar a necessidade do desenvolvimento de novas tecnologias que possibilitem o auxílio aos processos de apoio nutricional, assim como medir as preferências no desenvolvimento de software. Para isso, utilizou-se a Análise Conjunta, na qual os resultados agregados foram hierarquizados mediante uma Análise Categórica de Componentes Principais, para posterior segmentação dos individuos, mediante uma Análise de Clusters Hierárquicos. Neste estudo, pode verificar-se que não existe preferências no desenvolvimento de software genérico, havendo uma grande receptividade dos profissionais de saúde ao desenvolvimento da Telemedicina na área da nutrição. Por fim, existem diferenças, estatisticamente significativas, entre os profissionais da área da nutrição, o que permite a sua caracterização.