177 resultados para Qualidade de software
Resumo:
Não é recente a contribuição das tecnologias de informação e comunicação em processos de ensino/aprendizagem, no sentido da proliferação de conhecimento, de forma fácil e rápida. Com a contínua evolução tecnológica, surgem novos conceitos relativamente a processos de ensino/aprendizagem assentes nessas tecnologias. A aprendizagem por meio de dispositivos móveis, o m-Learning, é um exemplo, sendo um campo de investigação educacional em franca evolução, que explora essencialmente a mobilidade e a interactividade. No âmbito desta dissertação, pretende-se analisar a tecnologia m-Learning, fazendo referência as principais vantagens e desvantagens desta tecnologia. Neste sentido, e por pretendermos dar o nosso contributo ao ensino cabo-verdiano, onde a utilização de tal tecnologia é ainda inexistente, desenvolveu-se a aplicação CV Learning Mobile, um software educativo sobre a “Organização Administrativa de Cabo Verde”, como resultado do estudo efectuado.
Resumo:
Para dar resposta aos grandes avanços tecnológicos e, consequentemente, à postura mais exigente dos clientes, a empresa Francisco Parracho – Electrónica Industrial, Lda., que tem actividade no ramo dos elevadores, decidiu introduzir no mercado um controlador dedicado de ecrãs Liquid Crystal Display / Thin Film Transistor (LCD / TFT). O objectivo é substituir um sistema suportado por um computador, caracterizado pelas suas elevadas dimensões e custos, mas incontornável até à data, nomeadamente para resoluções de ecrã elevadas. E assim nasceu este trabalho. Com uma selecção criteriosa de todos os componentes e, principalmente, sem funcionalidades inúteis, obteve-se um sistema embebido com dimensões e custos bem mais reduzidos face ao seu opositor. O ecrã apontado para este projecto é um Thin Film Transistor – Liquid Crystal Display (TFT-LCD) da Sharp de 10.4” de qualidade industrial, com uma resolução de 800 x 600 píxeis a 18 bits por píxel. Para tal, foi escolhido um micro-controlador da ATMEL, um AVR de 32 bits que, entre outras características, possui um controlador LCD que suporta resoluções até 2048 x 2048 píxeis, de 1 a 24 bits por píxel. Atendendo ao facto deste produto ser inserido na área dos elevadores, as funcionalidades, quer a nível do hardware quer a nível do software, foram projectadas para este âmbito. Contudo, o conceito aqui exposto é adjacente a quaisquer outras áreas onde este produto se possa aplicar, até porque o software está feito para se tornar bem flexível. Com a ajuda de um kit de desenvolvimento, foram validados os drivers dos controladores e periféricos base deste projecto. De seguida, aplicou-se esse software numa placa de circuito impresso, elaborada no âmbito deste trabalho, para que fossem cumpridos todos os requisitos requeridos pela empresa patrocinadora: - Apresentação de imagens no ecrã consoante o piso; - Possibilidade de ter um texto horizontalmente deslizante;Indicação animada do sentido do elevador; - Representação do piso com deslizamento vertical; - Descrição sumária do directório de pisos também com deslizamento vertical; - Relógio digital; - Leitura dos conteúdos pretendidos através de um cartão SD/MMC; - Possibilidade de actualização dos conteúdos via USB flash drive.
Resumo:
A realização desta Tese/Dissertação tem como objectivo o estudo e implementação piloto de um Sistema de Supervisão e Aquisição de dados (SCADA) na Swedwood Portugal, na qual exerço as funções de Engenheiro de Processo nas linhas de montagem de mobiliário. Foi efectuado um estudo das necessidades da empresa relativamente às melhorias dos processos das linhas de montagem, com o intuito de melhorar a montagem do semi-produto, a nível de qualidade das matérias-primas, operação e desempenho de equipamentos. Chegou-se à conclusão que existe uma grande necessidade de controlar a qualidade das matérias-primas utilizadas na construção do semi-produto em tempo real, de modo a que seja possível diminuir a complexidade na recolha atempada de amostras por parte dos elementos de operação e diminuir o atraso da entrega de resultados das amostras por parte do laboratório. A colagem é um elemento crítico na montagem do semi-produto, devido às variações de viscosidade da cola, consequência das variações climatéricas a que foi sujeita, desde a saída do fornecedor até à sua utilização nas linhas de montagem. Para tal concebeu-se uma solução para dar uma resposta mais rápida no controlo de qualidade da cola à base de acetato de polivinil (PVAC), ou seja, a implementação piloto de um sistema SCADA na sala de colas, de modo a que haja um controlo a nível de temperatura e humidade, controlo de viscosidade em tempo real e controlo do nível da cola na cuba, fazendo com que haja só uma supervisão por parte dos elementos de operação. Optou-se por um conjunto de hardware e software da SIMATIC desenvolvido pela Siemens, para elaboração da programação e desenvolvimento da Interface Homem Máquina (HMI).
Resumo:
A eletromiografia é, hoje em dia, uma das técnicas mais utilizadas no estudo dos músculos, estando presente em áreas como a medicina, a biomecânica e a fisiologia, possibilitando o desenvolvimento científico e contribuindo para proporcionar melhorias na qualidade da vida humana. Sendo assim, este trabalho apresenta um protótipo de um aparelho de aquisição de sinais eletromiográficos, explicando também toda a teoria, técnicas, componentes utilizadas e softwares que estiveram presentes na sua implementação. De uma forma sucinta, para a aquisição do sinal eletromiográfico usou-se uma placa de aquisição NI-USB 6009 e para a visualização do mesmo recorreu-se ao software LabVIEW. Para validar o sinal adquirido com o equipamento desenvolvido, utilizou-se um outro equipamento, o Biopac MP36 Student Lab System, fazendo-se assim recolhas de sinais eletromiográficos com ambos os equipamentos. Os sinais recolhidos pelos dois equipamentos foram analisados no software Acknowledge 3.9.0 (Biopac Systems, Inc.), podendo observar-se os espetros de frequência correspondentes a cada sinal e retirar valores para posterior análise estatística. Feita essa análise, concluiu-se que não foram detetadas diferenças significativas entre os sinais eletromiográficos recolhidos com ambos os equipamentos, validando-se assim, o equipamento desenvolvido.
Resumo:
O betão é o material de construção feito pelo Homem mais utilizado no mundo. A sua composição é um processo complexo que exige um conhecimento teórico sólido e muita experiência prática, pelo que poucas pessoas estão habilitadas para o fazer e são muito requisitadas. No entanto não existe muita oferta actual de software que contemple alguns dos aspectos importantes da composição do betão, nomeadamente para o contexto europeu. Nesse sentido, foi desenvolvido um sistema de apoio à decisão chamado Betacomp, baseado num sistema pericial, para realizar estudos de composição de betão. Este contempla as normas legais portuguesas e europeias, e a partir da especificação do betão apresenta toda a informação necessária para se produzir um ensaio de betão. A aquisição do conhecimento necessário ao sistema contou com a colaboração de um especialista com longa e comprovada experiência na área da formulação e produção do betão, tendo sido construída uma base de conhecimento baseada em regras de produção no formato drl (Drools Rule Language). O desenvolvimento foi realizado na plataforma Drools.net, em C# e VB.net. O Betacomp suporta os tipos de betão mais comuns, assim como adições e adjuvantes, sendo aplicável numa grande parte dos cenários de obra. Tem a funcionalidade de fornecer explicações sobre as suas decisões ao utilizador, auxiliando a perceber as conclusões atingidas e simultaneamente pode funcionar como uma ferramenta pedagógica. A sua abordagem é bastante pragmática e de certo modo inovadora, tendo em conta parâmetros novos, que habitualmente não são considerados neste tipo de software. Um deles é o nível do controlo de qualidade do produtor de betão, sendo feito um ajuste de compensação à resistência do betão a cumprir, proporcional à qualidade do produtor. No caso dos produtores de betão, permite que indiquem os constituintes que já possuem para os poderem aproveitar (caso não haja impedimentos técnicos) , uma prática muito comum e que permitirá eventualmente uma aceitação maior da aplicação, dado que reflecte a forma habitual de agir nos produtores.
Resumo:
actividade de turismo de habitação tem crescido de forma sustentada ao longo dos últimos anos em Portugal e o recurso à internet como canal de comercialização deste serviço tem substituído gradualmente os restantes canais mais tradicionais. No entanto, esta generalização do recurso a websites, nesta e noutras áreas da actividade económica, não tem sido sempre sinónimo de qualidade, justificando assim a procura de sistemas de avaliação deste tipo de produto de software, que possam ser aplicados sistemática e eficazmente. Nesse sentido, foi desenvolvido este trabalho, no propósito de conseguir um modelo de avaliação de websites, específico para o turismo de habitação, na convicção de que para áreas específicas se exigem abordagens específicas. A pesquisa por modelos orientados para esta actividade não produziu qualquer resultado, ao contrário de outras áreas onde já existem modelos adequados, como sejam a área académica e outras. Daí a necessidade de conjugar ideias e conceitos mais genéricos, de fontes diversas, com elementos específicos de turismo de habitação, no intuito de os combinar e adequar aos objectivos deste trabalho. Assim, a partir de elementos da Norma ISO 9126; de conceitos de usabilidade, funcionalidade, credibilidade, e outros; da opção por uma abordagem de desempenho empresarial; de modelos já existentes, embora direccionados para outras áreas; e de um modelo exploratório de carácter empírico entretanto desenvolvido, foi concebido e implementado um modelo que se caracteriza no essencial, por ser estruturado em três níveis, contemplar um conjunto de trinta e oito atributos em avaliação, com maior incidência naqueles relacionados com aspectos que se considera terem maior influência no desempenho da actividade económica subjacente, e que tem uma ponderação variável do seu impacto no resultado final. No intuito de dar flexibilidade ao modelo e de contrariar a carga subjectiva resultante do processo de ponderação do impacto de cada atributo avaliado, foram implementados no modelo três cenários alternativos com ponderações distintas, cada um valorizando determinado tipo de atributos e desvalorizando outros. Naturalmente que, aquando da implementação do modelo exploratório foram já retiradas algumas conclusões sobre o panorama geral, todavia o modelo definitivo veio dar-lhes maior consistência e pormenor.
Resumo:
A Internet causou uma revolução em grande parte dos processos das empresas, criando oportunidades e gerando necessidades até então desconhecidas. Os Sistemas de Informação, ferramentas indispensáveis para uma gestão moderna das actividades empresariais, também foram influenciados pela evolução constante da tecnologia e as facilidades oferecidas para a popularização do uso da Internet. Rumo a uma crescente necessidade de modernização, rapidez, agilidade, eficiência e eficácia que são exigidos das actividades da empresa, actualmente, a tecnologia da Web é exibida como uma opção viável para melhorar o desempenho na gestão da informação. Esta Tese procura dissertar acerca dos aspectos relativos ao funcionamento e implementação de Serviços Web, suas principais características, vantagens e desvantagens comparativamente aos sistemas de informação tradicionais. Os objectivos propostos podem ser sintetizados no conhecimento e descrição das funcionalidades dos Serviços Web, no estudo da situação actual, na identificação das características que potenciam a capacidade de evolução dos Serviços Web, no estudo e desempenho dos Serviços Web, e finalmente, no estudo e análise da especificação Segurança.
Resumo:
A gestão dos sistemas eléctricos de energia assume um papel fundamental a vários níveis. Desde logo, o bom funcionamento (qualidade e continuidade de serviço) e a segurança da exploração apenas são conseguidos com um bom planeamento. Outro ponto importantíssimo é o aspecto económico. A este nível, os sistemas eléctricos representam um peso importante nas economias nacionais, uma vez que a energia é o motor do desenvolvimento. Nos tempos que correm, o aparecimento de grandes potências tem agitado os mercados energéticos, fazendo com que o preço dos produtos energéticos atinja máximos históricos. No primeiro capítulo deste trabalho, é feita uma introdução onde se apresenta e contextualiza o Despacho Óptimo na gestão global dos sistemas eléctricos de energia e como estes evoluíram nos últimos anos. O problema do Despacho Óptimo e todas as condicionantes/variáveis inerentes à sua resolução são aprofundados no capítulo 2. Primeiramente desprezando as perdas de transmissão das linhas, e depois com a sua contemplação. É, também, apresentado o métodos dos multiplicadores de Lagrange aplicado a este problema. No capítulo 3 é feita uma resenha da evolução dos métodos utilizados para a resolução do Despacho Óptimo, fazendo-se a destrinça entre os métodos clássicos e os mais recentes métodos heurísticos. A evolução que se tem verificado ao longo dos anos nos métodos utilizados, assim como o recurso ao cálculo computacional, devem-se à crescente complexidade dos Sistemas Eléctricos e à necessidade de rapidez e precisão nos resultados. Devido ao facto das centrais de produção de energia eléctrica funcionarem, não só com recurso a matérias-primas mas também através de recursos naturais que não têm um custo de aquisição, mas que não têm uma disponibilidade constante, existe a necessidade de se fazer uma gestão criteriosa na conjugação dos diversos tipos de produção. Como no nosso pais a grande alternativa às centrais térmicas são as hídricas, no capítulo 4 é apresentado o problema da coordenação hidro-térmica. No capítulo 5 é exposta a ferramenta computacional desenvolvida para a resolução do despacho óptimo com e sem perdas, que consiste num programa elaborado com o “software MatLab”. Este trabalho finaliza com um capítulo de conclusões.
Resumo:
As unidades de cuidados intensivos (UCI), são das áreas hospitalares que mais dinheiro consomem nas instituições públicas. As funções dos profissionais de saúde são imprescindíveis, mas também a logística e gestão são de vital importância e como tal, têm de ser avaliadas. Por isso, todos os indicadores – clínicos, económico-financeiros, recursos humanos, produtividade, qualidade - são importantes para que a gestão possa, dinâmica e oportunamente, ter informação útil para a tomada de decisões. Assim, a garantia de uma gestão eficiente dos recursos é cada vez mais importante de forma a satisfazer não só os pacientes como toda a estrutura hospitalar. Nos tempos que correm, e com a situação socioeconómica de crise que se vive, é de extrema importância saber com o maior nível de detalhe possível, com que recursos se pode contar. É importante quantificar de forma eficaz e eficiente como são utilizados os recursos, para satisfazer com o maior nível de qualidade possível um paciente que entre numa UCI. Para tal, a utilização de sistemas de informação (SI) e das ferramentas indicadas na gestão de uma unidade hospitalar, são de grande importância. Nesta tese, é proposta uma ferramenta, que seja simples e de fácil utilização, desenvolvida com recurso a tecnologia ROLAP para a extracção e análise de indicadores numa UCI, e que possa ser facilmente integrada num software de gestão do dia-a-dia.
Resumo:
O desenvolvimento deste trabalho teve como objectivo a optimização de um sistema de climatização industrial, constituído por quatro centrais de climatização adiabáticas, que apresentam limitações de capacidade de arrefecimento, controlo e eficiência. Inicialmente foi necessária a pesquisa bibliográfica e recolha de informação relativa à indústria têxtil e ao processo de arrefecimento evaporativo. Numa fase posterior foram recolhidos e analisados os diversos dados essenciais à compreensão do binómio edifício/sistema de climatização, para a obtenção de possíveis hipóteses de optimização. Da fase de recolha de informações e dados, destaca-se, também, a realização de análises à qualidade do ar interior (QAI). As optimizações seleccionadas como passíveis de implementação, foram estudadas e analisadas com o auxílio do software de simulação energética dinâmica DesignBuilder e os resultados obtidos foram devidamente trabalhados e ajustados de modo a permitir uma assimilação amigável e de fácil interpretação das suas vantagens e desvantagens, tendo ainda sido objecto de estudo de viabilidade económica. A optimização proposta reflecte uma melhoria substancial das condições interiores ao nível da temperatura e humidade relativa, resultando, ainda assim, numa redução de consumos energéticos na ordem dos 23 % (490.337 kWh), isto é, uma poupança anual de 42.169 € aos custos de exploração e com um período de retorno de 1 ano e 11 meses.
Resumo:
O objectivo desta Tese/Dissertação é conceber um sistema para a BOSCH Termotecnologia S.A., na qual exerço as funções de Engenheiro de Qualidade de Fornecedores de peças electrónicas, que permita testar funcionalmente dois tipos de PCBA (Printed Circuit Board Assembled) utilizados em dois modelos de esquentador estanque com denominação Celsius e Celsius Plus, produzidos nesta empresa para mercados de todo o Mundo. Os PCBA foram desenvolvidos internamente pelo departamento de ENG (Departamento de Desenvolvimento) e são actualmente peças de compra cujo fornecedor está localizado na China. Em primeiro lugar foi efectuado um estudo das necessidades da empresa relativamente aos projectos necessários para melhorar os processos de investigação de falhas e melhoria de Qualidade dos fornecedores de peças electrónicas, no contexto do departamento onde este projecto se insere. A conclusão chegada foi que existe uma grande necessidade de investigar avarias nas PCBA de compra do fornecedor asiático de forma rápida e precisa, de modo a que seja possível trabalhar mais activamente e rapidamente na melhoria de Qualidade do mesmo, melhorando, por exemplo, os seus processos produtivos. Em segundo lugar concebeu-se a solução a realizar. Optou-se por um conjunto hardware e software desenvolvido de raiz, que inclui um jig (gabarit anti-erro – Poke Yoke) dotado de agulhas para o teste FCT (Functional Circuit Test), um hardware de aquisição de dados analógicos e digitais adquirido para o projecto, um hardware de interface entre o PC (Personal Computer) e o hardware de aquisição de dados, e um software desenvolvido em LabVIEW versão 8.6 (Laboratory Virtual Instruments Engineering Workbench).
Resumo:
O chocolate é considerado uma emulsão complexa e um alimento de luxo, que durante o seu consumo provoca estímulos que activam os centros de prazer do cérebro Humano. Tendo em conta a importância deste alimento torna-se necessário estudar e avaliar a melhor forma de melhorar a qualidade do chocolate. Este trabalho teve como objectivo verificar e analisar a qualidade do processo de fabrico da massa de chocolate, no que respeita (i) a rastreabilidade das matérias-primas e do produto acabado e, por outro lado, (ii) determinar e estudar o efeito de alguns parâmetros do processo nas características da massa, através das variáveis viscosidade, tensão de corte, tensão de corte crítica (“yield value”) e granulometria. Estas variáveis foram medidas em massas de chocolate de leite com o nome de formulação CAI e provenientes das duas unidades fabris da empresa (UF1 e UF2). Os parâmetros estudados na UF1 foram a influência das conchas e dos ingredientes. Na UF2 estudou-se a influência dos inutilizados de fabrico e a influência dos inutilizados de fabrico juntamente com o efeito de um ingrediente que foi o açúcar. Os resultados da viscosidade, tensão de corte e tensão de corte crítica (“yield value”) foram analisados estatisticamente por análise de variância (ANOVA), recorrendo aos testes de Komolgorov-Smirnov, Shapiro-Wilk e de Levene para verificar as condições de aplicabilidade desta análise. Os resultados da granulometria como não aderiram a uma distribuição normal foram analisados pelo método não paramétrico de Kruskal-Wallis. Estas análises foram executadas no programa “Statistical Package for the Social Sciences” (SPSS). Pelos resultados obtidos, conclui-se que, para a UF1, a concha afecta a tensão de corte, viscosidade e a tensão de corte crítica do chocolate produzido, na medida em que existem diferenças entre as conchas estudadas. Para esta unidade conclui-se que os ingredientes também influenciam a granulometria da massa. No caso da UF2, conclui-se que a tensão de corte é afectada apenas pelo lote de açúcar, a viscosidade é afectada tanto pelo lote de açúcar como pela presença de inutilizados de fabrico e a tensão de corte crítica não é afectada por nenhum destes efeitos. A granulometria, nesta unidade é afectada pelos lotes de açúcar estudados.
Resumo:
Introdução Hoje em dia, o conceito de ontologia (Especificação explícita de uma conceptualização [Gruber, 1993]) é um conceito chave em sistemas baseados em conhecimento em geral e na Web Semântica em particular. Entretanto, os agentes de software nem sempre concordam com a mesma conceptualização, justificando assim a existência de diversas ontologias, mesmo que tratando o mesmo domínio de discurso. Para resolver/minimizar o problema de interoperabilidade entre estes agentes, o mapeamento de ontologias provou ser uma boa solução. O mapeamento de ontologias é o processo onde são especificadas relações semânticas entre entidades da ontologia origem e destino ao nível conceptual, e que por sua vez podem ser utilizados para transformar instâncias baseadas na ontologia origem em instâncias baseadas na ontologia destino. Motivação Num ambiente dinâmico como a Web Semântica, os agentes alteram não só os seus dados mas também a sua estrutura e semântica (ontologias). Este processo, denominado evolução de ontologias, pode ser definido como uma adaptação temporal da ontologia através de alterações que surgem no domínio ou nos objectivos da própria ontologia, e da gestão consistente dessas alterações [Stojanovic, 2004], podendo por vezes deixar o documento de mapeamento inconsistente. Em ambientes heterogéneos onde a interoperabilidade entre sistemas depende do documento de mapeamento, este deve reflectir as alterações efectuadas nas ontologias, existindo neste caso duas soluções: (i) gerar um novo documento de mapeamento (processo exigente em termos de tempo e recursos computacionais) ou (ii) adaptar o documento de mapeamento, corrigindo relações semânticas inválidas e criar novas relações se forem necessárias (processo menos existente em termos de tempo e recursos computacionais, mas muito dependente da informação sobre as alterações efectuadas). O principal objectivo deste trabalho é a análise, especificação e desenvolvimento do processo de evolução do documento de mapeamento de forma a reflectir as alterações efectuadas durante o processo de evolução de ontologias. Contexto Este trabalho foi desenvolvido no contexto do MAFRA Toolkit1. O MAFRA (MApping FRAmework) Toolkit é uma aplicação desenvolvida no GECAD2 que permite a especificação declarativa de relações semânticas entre entidades de uma ontologia origem e outra de destino, utilizando os seguintes componentes principais: Concept Bridge – Representa uma relação semântica entre um conceito de origem e um de destino; Property Bridge – Representa uma relação semântica entre uma ou mais propriedades de origem e uma ou mais propriedades de destino; Service – São aplicados às Semantic Bridges (Property e Concept Bridges) definindo como as instâncias origem devem ser transformadas em instâncias de destino. Estes conceitos estão especificados na ontologia SBO (Semantic Bridge Ontology) [Silva, 2004]. No contexto deste trabalho, um documento de mapeamento é uma instanciação do SBO, contendo relações semânticas entre entidades da ontologia de origem e da ontologia de destino. Processo de evolução do mapeamento O processo de evolução de mapeamento é o processo onde as entidades do documento de mapeamento são adaptadas, reflectindo eventuais alterações nas ontologias mapeadas, tentando o quanto possível preservar a semântica das relações semântica especificadas. Se as ontologias origem e/ou destino sofrerem alterações, algumas relações semânticas podem tornar-se inválidas, ou novas relações serão necessárias, sendo por isso este processo composto por dois sub-processos: (i) correcção de relações semânticas e (ii) processamento de novas entidades das ontologias. O processamento de novas entidades das ontologias requer a descoberta e cálculo de semelhanças entre entidades e a especificação de relações de acordo com a ontologia/linguagem SBO. Estas fases (“similarity measure” e “semantic bridging”) são implementadas no MAFRA Toolkit, sendo o processo (semi-) automático de mapeamento de ontologias descrito em [Silva, 2004].O processo de correcção de entidades SBO inválidas requer um bom conhecimento da ontologia/linguagem SBO, das suas entidades e relações, e de todas as suas restrições, i.e. da sua estrutura e semântica. Este procedimento consiste em (i) identificar as entidades SBO inválidas, (ii) a causa da sua invalidez e (iii) corrigi-las da melhor forma possível. Nesta fase foi utilizada informação vinda do processo de evolução das ontologias com o objectivo de melhorar a qualidade de todo o processo. Conclusões Para além do processo de evolução do mapeamento desenvolvido, um dos pontos mais importantes deste trabalho foi a aquisição de um conhecimento mais profundo sobre ontologias, processo de evolução de ontologias, mapeamento etc., expansão dos horizontes de conhecimento, adquirindo ainda mais a consciência da complexidade do problema em questão, o que permite antever e perspectivar novos desafios para o futuro.
Resumo:
Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Gestão das Organizações, Ramo de Gestão de Empresas Orientada por Prof. Doutora Maria Alexandra Pacheco Ribeiro da Costa Esta dissertação inclui as críticas e sugestões feitas pelo júri.
Resumo:
The Robuter is a robotic mobile platform that is located in the “Hands-On” Laboratory of the IPP-Hurray! Research Group, at the School of Engineering of the Polytechnic Institute of Porto. Recently, the Robuter was subject of an upgrading process addressing two essential areas: the Hardware Architecture and the Software Architecture. This upgrade in process was triggered due to technical problems on-board of the robot and also to the fact that the hardware/software architecture has become obsolete. This Technical Report overviews the most important aspects of the new Hardware and Software Architectures of the Robuter. This document also presents a first approach on the first steps towards the use of the Robuter platform, and provides some hints on future work that may be carried out using this mobile platform.