113 resultados para goal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Perante a evolução constante da Internet, a sua utilização é quase obrigatória. Através da web, é possível conferir extractos bancários, fazer compras em países longínquos, pagar serviços sem sair de casa, entre muitos outros. Há inúmeras alternativas de utilização desta rede. Ao se tornar tão útil e próxima das pessoas, estas começaram também a ganhar mais conhecimentos informáticos. Na Internet, estão também publicados vários guias para intrusão ilícita em sistemas, assim como manuais para outras práticas criminosas. Este tipo de informação, aliado à crescente capacidade informática do utilizador, teve como resultado uma alteração nos paradigmas de segurança informática actual. Actualmente, em segurança informática a preocupação com o hardware é menor, sendo o principal objectivo a salvaguarda dos dados e continuidade dos serviços. Isto deve-se fundamentalmente à dependência das organizações nos seus dados digitais e, cada vez mais, dos serviços que disponibilizam online. Dada a mudança dos perigos e do que se pretende proteger, também os mecanismos de segurança devem ser alterados. Torna-se necessário conhecer o atacante, podendo prever o que o motiva e o que pretende atacar. Neste contexto, propôs-se a implementação de sistemas de registo de tentativas de acesso ilícitas em cinco instituições de ensino superior e posterior análise da informação recolhida com auxílio de técnicas de data mining (mineração de dados). Esta solução é pouco utilizada com este intuito em investigação, pelo que foi necessário procurar analogias com outras áreas de aplicação para recolher documentação relevante para a sua implementação. A solução resultante revelou-se eficaz, tendo levado ao desenvolvimento de uma aplicação de fusão de logs das aplicações Honeyd e Snort (responsável também pelo seu tratamento, preparação e disponibilização num ficheiro Comma Separated Values (CSV), acrescentando conhecimento sobre o que se pode obter estatisticamente e revelando características úteis e previamente desconhecidas dos atacantes. Este conhecimento pode ser utilizado por um administrador de sistemas para melhorar o desempenho dos seus mecanismos de segurança, tais como firewalls e Intrusion Detection Systems (IDS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde o seu aparecimento, a Internet teve um desenvolvimento e uma taxa de crescimento quase exponencial. Os mercados de comércio electrónico têm vindo a acompanhar esta tendência de crescimento, tornando-se cada vez mais comuns e populares entre comerciantes ou compradores/vendedores de ocasião. A par deste crescimento também foi aumentando a complexidade e sofisticação dos sistemas responsáveis por promover os diferentes mercados. No seguimento desta evolução surgiram os Agentes Inteligentes devido à sua capacidade de encontrar e escolher, de uma forma relativamente eficiente, o melhor negócio, tendo por base as propostas e restrições existentes. Desde a primeira aplicação dos Agentes Inteligentes aos mercados de comércio electrónico que os investigadores desta área, têm tentado sempre auto-superar-se arranjando modelos de Agentes Inteligentes melhores e mais eficientes. Uma das técnicas usadas, para a tentativa de obtenção deste objectivo, é a transferência dos comportamentos Humanos, no que toca a negociação e decisão, para estes mesmos Agentes Inteligentes. O objectivo desta dissertação é averiguar se os Modelos de Avaliação de Credibilidade e Reputação são uma adição útil ao processo de negociação dos Agente Inteligentes. O objectivo geral dos modelos deste tipo é minimizar as situações de fraude ou incumprimento sistemático dos acordos realizados aquando do processo de negociação. Neste contexto, foi proposto um Modelo de Avaliação de Credibilidade e Reputação aplicável aos mercados de comércio electrónico actuais e que consigam dar uma resposta adequada o seu elevado nível de exigência. Além deste modelo proposto também foi desenvolvido um simulador Multi-Agente com a capacidade de simular vários cenários e permitir, desta forma, comprovar a aplicabilidade do modelo proposto. Por último, foram realizadas várias experiências sobre o simulador desenvolvido, de forma a ser possível retirar algumas conclusões para o presente trabalho. Sendo a conclusão mais importante a verificação/validação de que a utilização de mecanismos de credibilidade e reputação são uma mais-valia para os mercado de comércio electrónico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo dos últimos anos tem-se verificado um desenvolvimento significativo em soluções Internet Protocol Television (IPTV), com vista a ser implementadas em diversos sectores, incluindo o mercado hoteleiro. O presente trabalho desenvolveu-se em torno de um produto específico ligado a esta área, o sistema de entretenimento NiVo. Este produto foi criado pela Nonius Software, empresa associada ao ramo das telecomunicações, que continua a expandi-lo, conferindo-lhe novas características e melhoramentos. O objectivo principal do projecto consiste no desenvolvimento de uma aplicação simuladora dos temas gráficos do sistema NiVo, com a finalidade de facilitar o processo de criação dos mesmos. Esta aplicação pretende ter uma apresentação e interactividade o mais próxima possível do sistema real, permitindo realizar o teste/validação de um tema, sem a necessidade de utilização de equipamento que compõe o sistema NiVo. Um segundo objectivo baseia-se no desenvolvimento de uma aplicação de ajuda à composição de temas, evitando que estes sejam desenvolvidos manualmente, sem qualquer tipo de suporte, o que pode resultar em erros. Para o cumprimento dos objectivos estabelecidos, focando-se no desenvolvimento do simulador, utilizou-se a tecnologia Flash, sendo esta muito utilizada para a criação de animações interactivas. Desta forma, a aplicação desenvolvida tira partido das vantagens fornecidas por esta tecnologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

An Electrocardiogram (ECG) monitoring system deals with several challenges related with noise sources. The main goal of this text was the study of Adaptive Signal Processing Algorithms for ECG noise reduction when applied to real signals. This document presents an adaptive ltering technique based on Least Mean Square (LMS) algorithm to remove the artefacts caused by electromyography (EMG) and power line noise into ECG signal. For this experiments it was used real noise signals, mainly to observe the di erence between real noise and simulated noise sources. It was obtained very good results due to the ability of noise removing that can be reached with this technique. A recolha de sinais electrocardiogr a cos (ECG) sofre de diversos problemas relacionados com ru dos. O objectivo deste trabalho foi o estudo de algoritmos adaptativos para processamento digital de sinal, para redu c~ao de ru do em sinais ECG reais. Este texto apresenta uma t ecnica de redu c~ao de ru do baseada no algoritmo Least Mean Square (LMS) para remo c~ao de ru dos causados quer pela actividade muscular (EMG) quer por ru dos causados pela rede de energia el ectrica. Para as experiencias foram utilizados ru dos reais, principalmente para aferir a diferen ca de performance do algoritmo entre os sinais reais e os simulados. Foram conseguidos bons resultados, essencialmente devido as excelentes caracter sticas que esta t ecnica tem para remover ru dos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A realização desta Tese/Dissertação tem como objectivo o estudo e implementação piloto de um Sistema de Supervisão e Aquisição de dados (SCADA) na Swedwood Portugal, na qual exerço as funções de Engenheiro de Processo nas linhas de montagem de mobiliário. Foi efectuado um estudo das necessidades da empresa relativamente às melhorias dos processos das linhas de montagem, com o intuito de melhorar a montagem do semi-produto, a nível de qualidade das matérias-primas, operação e desempenho de equipamentos. Chegou-se à conclusão que existe uma grande necessidade de controlar a qualidade das matérias-primas utilizadas na construção do semi-produto em tempo real, de modo a que seja possível diminuir a complexidade na recolha atempada de amostras por parte dos elementos de operação e diminuir o atraso da entrega de resultados das amostras por parte do laboratório. A colagem é um elemento crítico na montagem do semi-produto, devido às variações de viscosidade da cola, consequência das variações climatéricas a que foi sujeita, desde a saída do fornecedor até à sua utilização nas linhas de montagem. Para tal concebeu-se uma solução para dar uma resposta mais rápida no controlo de qualidade da cola à base de acetato de polivinil (PVAC), ou seja, a implementação piloto de um sistema SCADA na sala de colas, de modo a que haja um controlo a nível de temperatura e humidade, controlo de viscosidade em tempo real e controlo do nível da cola na cuba, fazendo com que haja só uma supervisão por parte dos elementos de operação. Optou-se por um conjunto de hardware e software da SIMATIC desenvolvido pela Siemens, para elaboração da programação e desenvolvimento da Interface Homem Máquina (HMI).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho propus-me realizar um Sistema de Aquisição de Dados em Tempo Real via Porta Paralela. Para atingir com sucesso este objectivo, foi realizado um levantamento bibliográfico sobre sistemas operativos de tempo real, salientando e exemplificando quais foram marcos mais importantes ao longo da sua evolução. Este levantamento permitiu perceber o porquê da proliferação destes sistemas face aos custos que envolvem, em função da sua aplicação, bem como as dificuldades, científicas e tecnológicas, que os investigadores foram tendo, e que foram ultrapassando com sucesso. Para que Linux se comporte como um sistema de tempo real, é necessário configura-lo e adicionar um patch, como por exemplo o RTAI ou ADEOS. Como existem vários tipos de soluções que permitem aplicar as características inerentes aos sistemas de tempo real ao Linux, foi realizado um estudo, acompanhado de exemplos, sobre o tipo de arquitecturas de kernel mais utilizadas para o fazer. Nos sistemas operativos de tempo real existem determinados serviços, funcionalidades e restrições que os distinguem dos sistemas operativos de uso comum. Tendo em conta o objectivo do trabalho, e apoiado em exemplos, fizemos um pequeno estudo onde descrevemos, entre outros, o funcionamento escalonador, e os conceitos de latência e tempo de resposta. Mostramos que há apenas dois tipos de sistemas de tempo real o ‘hard’ que tem restrições temporais rígidas e o ‘soft’ que engloba as restrições temporais firmes e suaves. As tarefas foram classificadas em função dos tipos de eventos que as despoletam, e evidenciando as suas principais características. O sistema de tempo real eleito para criar o sistema de aquisição de dados via porta paralela foi o RTAI/Linux. Para melhor percebermos o seu comportamento, estudamos os serviços e funções do RTAI. Foi dada especial atenção, aos serviços de comunicação entre tarefas e processos (memória partilhada e FIFOs), aos serviços de escalonamento (tipos de escalonadores e tarefas) e atendimento de interrupções (serviço de rotina de interrupção - ISR). O estudo destes serviços levou às opções tomadas quanto ao método de comunicação entre tarefas e serviços, bem como ao tipo de tarefa a utilizar (esporádica ou periódica). Como neste trabalho, o meio físico de comunicação entre o meio ambiente externo e o hardware utilizado é a porta paralela, também tivemos necessidade de perceber como funciona este interface. Nomeadamente os registos de configuração da porta paralela. Assim, foi possível configura-lo ao nível de hardware (BIOS) e software (módulo do kernel) atendendo aos objectivos do presente trabalho, e optimizando a utilização da porta paralela, nomeadamente, aumentando o número de bits disponíveis para a leitura de dados. No desenvolvimento da tarefa de hard real-time, foram tidas em atenção as várias considerações atrás referenciadas. Foi desenvolvida uma tarefa do tipo esporádica, pois era pretendido, ler dados pela porta paralela apenas quando houvesse necessidade (interrupção), ou seja, quando houvesse dados disponíveis para ler. Desenvolvemos também uma aplicação para permitir visualizar os dados recolhidos via porta paralela. A comunicação entre a tarefa e a aplicação é assegurada através de memória partilhada, pois garantindo a consistência de dados, a comunicação entre processos do Linux e as tarefas de tempo real (RTAI) que correm ao nível do kernel torna-se muito simples. Para puder avaliar o desempenho do sistema desenvolvido, foi criada uma tarefa de soft real-time cujos tempos de resposta foram comparados com os da tarefa de hard real-time. As respostas temporais obtidas através do analisador lógico em conjunto com gráficos elaborados a partir destes dados, mostram e comprovam, os benefícios do sistema de aquisição de dados em tempo real via porta paralela, usando uma tarefa de hard real-time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este relatório apresenta o trabalho realizado no âmbito da unidade curricular de Tese/Dissertação do Mestrado em Engenharia Electrotécnica e de Computadores - área de especialização de Telecomunicações. Pretende-se desenvolver um sistema distribuído de seguimento, no exterior, de plataformas móveis equipadas com receptores de baixo custo. O sistema deve, em tempo útil, realizar a aquisição, descodificação e tratamento dos dados emiti- dos pelo Global Navigation Satellite System (GNSS), das observações efectuadas pelo receptor e da informação proveniente do European Geostationary Navigation Overlay System (EGNOS). O objectivo é determinar, a partir deste conjunto de informação e para cada plataforma ligada, a posição em modo absoluto, as correcções diferenciais e, finalmente, a posição em modo diferencial. Optou-se por receber as correcções diferenciais de área alargada do EGNOS através da Internet, permitindo, assim, que receptores sem capacidade de receber directamente informação do EGNOS possam também usufruir desta fonte de informação complementar. As correcções diferenciais a aplicar às observações de cada receptor são geradas através do conceito de estacão de referência virtual - Virtual Reference Station (VRS) - a partir da posição aproximada do receptor e das correcções de área alargada provenientes do EGNOS. A determinação da posição em modo diferencial das plataformas móveis é efectuada segundo o conceito de Inverted Di®erential Global Navigation Satellite System (IDGNSS) e utilizando uma arquitectura do tipo Cliente-Servidor. Por último, os resultados, que são armazenados numa base de dados, são disponibilizados ao utilizador através de uma aplicação Web. O utilizador pode, assim, efectuar o seguimento de qualquer plataforma móvel ligada ao sistema a partir de qualquer dispositivo com navegador e acesso à Internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese pretende desenvolver o estudo de um padrão que utiliza um modelo de implementação fundamentado na natureza das operações que um sistema pretende executar. Estas operações são distinguidas pelo que realizam, portanto um sistema poderá ser dividido em duas grandes áreas: uma, de leitura de dados, e outra, de manipulação de dados. A maior parte dos sistemas atuais está a progredir, com o objetivo de conseguir suportar muitos utilizadores em simultâneo, e é neste aspeto que este padrão se diferencia porque vai permitir escalar, com muita facilidade e sem sobrecarga. Além disso, este estudo deverá facultar um conjunto de boas práticas e incidir sobre o facto de se pretender desenhar um sistema de raiz e não apenas em “migrar” de um sistema já existente. Ao estudar este padrão é essencial estudar e analisar a evolução da utilização futura dos sistemas, para determinar a utilidade e a aplicação crescente ou não, deste padrão. Interessa também saber, quem implementa atualmente este padrão, em que tipo de produtos, e enaltecer o seu sucesso de implementação, estimulando o desenvolvimento da sua utilização. Finalmente, demonstra-se a aplicabilidade e validade do padrão proposto, através de uma implementação modelo, com a ajuda de uma framework de forma a determinar quais as ferramentas existentes que possam ser úteis e contribuir para a implementação deste padrão. O objetivo final será demonstrar os principais componentes do sistema, como poderá prosseguir a sua evolução e como poderá ser melhorada e simplificada a comunicação entre os seus componentes, para uma utilização mais fácil, frequente e de interesse comum para todos: utilizadores e administradores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento da utilização do mercúrio, Hg, tanto para fins industriais como na aplicação de compostos mercuriais na agricultura, originaram um aumento significativo da contaminação ambiental, especialmente das águas e dos alimentos. Foi aprofundado o estudo sobre o mercúrio, nomeadamente as suas principais fontes de emissão, a sua toxicidade, os principais efeitos nos seres humanos, algumas medidas preventivas, os limites máximos que a legislação permite, que no caso das águas analisadas é de 0,001mg/L, os métodos analíticos para a sua determinação e alguns métodos de amostragem, tanto para o mercúrio em águas como em sedimentos. Em Almadén (Espanha), existe uma mina que pode ser considerada como uma das maiores anomalias geoqímica de mercúrio na Terra. Com este trabalho pretendeu-se perceber a possível existência de mercúrio nas águas termais ao longo da zona de falha Penacova-Régua-Verin e avaliar a existência de uma relação entre os níveis de mercúrio e o seu contexto geológico. Neste trabalho, foi desenvolvido um método simples para a determinação dos níveis de mercúrio em águas, utilizando a espectrometria de absorção atómica de fonte contínua de alta resolução acoplado à técnica de vapor frio. O objectivo deste trabalho foi avaliar os níveis de mercúrio existente em algumas águas engarrafadas e termais. Os limites de detecção da técnica utilizada foram 0,0595 μg/L e os de quantificação foram 0,2100 μg/L. Depois de analisadas as amostras verificou-se que os níveis de mercúrio encontrados nas águas eram inferiores ao limite de quantificação da técnica e por isso, não foi possível extrapolar qualquer relação entre os níveis de mercúrio e as alterações do fundo geológico. Como o limite de quantificação é inferior ao limite máximo permitido por lei, pode então dizer-se que todas as águas se encontram abaixo do limite máximo permitido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A constante evolução da tecnologia obriga a que o mundo empresarial tenha que alocar esforços para se manter actualizado. Os equipamentos tecnológicos que se encontram actualmente na vanguarda da tecnologia são os dispositivos móveis, que cada vez mais nos rodeiam e acompanham com o intuito de nos facilitar a execução de tarefas rotineiras. O ramo de construção e obras públicas em particular é um sector que obriga a que os seus trabalhadores estejam constantemente em movimento, e que muito têm a ganhar com a utilização de ferramentas de trabalho em equipamentos móveis. Neste projecto pretendeu-se identificar qual o sistema operativo para dispositivos móveis que melhor se enquadra com as necessidades empresariais, assim como quais os mecanismos de comunicação inter-máquinas que melhor se enquadram com o cenário em estudo. Foi então desenvolvida uma plataforma para dispositivos móveis que permite agilizar a execução de processos que normalmente são morosos ou que obrigam à utilização do computador em locais menos próprios, nomeadamente o ambiente de obra. A solução proposta e implementada envolve uma aplicação modular quer permita a fácil inserção e remoção de módulos. Foram também realizados os estudos e implementações de quatro módulos, designadamente: auto-afectação, conferência documental, fornecedores e presenças em obra. Concluído este projecto, ficam reunidas as condições para o fácil desenvolvimento de novos módulos, visando inovação e optimização dos processos de trabalho da empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the most difficult issues of e-Learning is the students’ assessment. Being this an outstanding task regarding theoretical topics, it becomes even more challenging when the topics under evaluation are practical. ISCAP’s Information Systems Department is composed of about twenty teachers who have been for several years using an e-learning environment (at the moment Moodle 2.3) combined with traditional assessment. They are now planning and implementing a new e-learning assessment strategy. This effort was undertaken in order to evaluate a practical topic (the use of spreadsheets to solve management problems) common to shared courses of several undergraduate degree programs. The same team group is already experienced in the assessment of theoretical information systems topics using the b-learning platform. Therefore, this project works as an extension to previous experiences being the team aware of the additional difficulties due to the practical nature of the topics. This paper describes this project and presents two cycles of the action research methodology, used to conduct the research. The first cycle goal was to produce a database of questions. When it was implemented in order to be used with a pilot group of students, several problems were identified. Subsequently, the second cycle consisted in solving the identified problems preparing the database and all the players to a broader scope implementation. For each cycle, all the phases, its drawbacks and achievements are described. This paper suits all those who are or are planning to be in the process of shifting their assessment strategy from a traditional to one supported by an e-learning platform.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve o intuito de criar uma linha de montagem universal através da qual será dada formação aos atuais operadores e a novos que possam vir a pertencer ao departamento de montagem na empresa Grohe Portugal. Para tal era necessário saber realizar um estudo de métodos e um estudo de tempos sobre os vários processos existentes no departamento de montagem. Com esse intuito foi elaborada uma pesquisa sobre as referidas temáticas, onde ficou evidente a sua importância e a sua imprescindibilidade. Inicialmente houve também um acompanhamento das montagens dos produtos nas várias linhas, de forma a adquirir conhecimento sobre as características dos processos de montagem existentes no departamento. Os pontos mais importantes durante o estudo de métodos e tempos realizado foram a definição de toda a estrutura do processo, das ferramentas e materiais a utilizar, não esquecendo a relação entre o operador e as suas ferramentas e a medição de tempos de todas as tarefas necessárias para cada processo de montagem. A linha de montagem, cujo projeto se desenvolveu, é composta por três bancadas e consiste num conjunto de postos de trabalho onde são executadas as operações através de máquinas, do trabalho humano, ou da sua conjugação, dispostos numa determinada sequência, sendo alguns deles amovíveis. Para a realização e conclusão deste projeto foram superadas diversas etapas, sendo que as mais relevantes foram:  a análise dos processos de montagem;  estudo de tempos de todas as famílias de produtos a serem implementados na linha de formação; - Definição da estrutura da linha de montagem; - Definição das rampas e dos tubos de abastecimento da linha; - Desenho da linha de montagem em 3D no software SolidWorks. Paralelamente foram também desenvolvidos estudos de tempos sobre alguns produtos com o intuito de serem implementadas melhorias, ou apenas para o controlo de tempos necessários para a realização das operações Por último, foi também elaborada uma recolha de ferramentas existentes no departamento de montagem para serem elaborados manuais de instruções das ferramentas fabricadas internamente, com o objetivo de obter a certificação OSHAS 180001 e de criar documentos com a listagem de materiais necessários para cada produto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a presente dissertação pretende-se analisar alguns dos problemas associados aos edifícios altos, na fase de projeto, bem como compilar um conjunto de informações e conhecimentos científicos sobre a área abordada. São descritas algumas soluções de sistemas estruturais possíveis de idealizar para edifícios altos. Posteriormente, tendo por base um projeto de estruturas de um edifício com 25 pisos localizado em Luanda, capital de Angola, o objetivo consistiu em analisar estática e dinamicamente o seu comportamento quando solicitado fundamentalmente pelas ações do vento e dos sismos. A análise estrutural foi realizada com recurso a dois softwares de cálculo automático, nomeadamente, o Cypecad e o Robot Structural Analysis Professional e pelos métodos preconizados no Regulamento de Segurança e Ações para estruturas de edifícios e pontes e o Eurocódigo 8 – “Projeto de estruturas para resistência aos sismos”. Aborda-se a temática do faseamento construtivo, assunto que revela algumas limitações dos programas de cálculo utilizados, sendo descrito um método simplificado para prever os seus efeitos em termos de dimensionamento final. Os resultados obtidos permitiram avaliar o bom comportamento da estrutura no que respeita ao cumprimento dos estados limites últimos e de serviço. Conclui-se que o sistema estrutural adotado no modelo em estudo se encontra bem dimensionado relativamente ao colapso e à limitação de danos.