1000 resultados para Estante 22 Número 009


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O instável mas tendencialmente crescente preço dos combustíveis associado a preocupações ambientais cada vez mais enraizadas nas sociedades, têm vindo a despoletar uma maior atenção à procura de combustíveis alternativos. Por outro lado, várias projecções indicam um aumento muito acentuado do consumo energético global no curto prazo, fruto do aumento da população e do nível de industrialização das sociedades. Neste contexto, o biodiesel (ésteres de ácidos gordos) obtido através da transesterificação de triglicerídeos de origem vegetal ou animal, surge como a alternativa “verde” mais viável para utilização em equipamentos de combustão. A reacção de transesterificação é catalisada, por norma com recurso a catalisadores homogéneos alcalinos (NaOH ou KOH). Este tipo de processo, o único actualmente com expressão a nível industrial, apresenta algumas desvantagens que, para além de aumentarem o custo do produto final, contribuem para reduzir a benignidade do mesmo: a impossibilidade de reutilização do catalisador, o aumento do número e complexidade das etapas de separação e a produção de efluentes resultantes das referidas etapas. Com o intuito de minimizar ou eliminar estes problemas, vários catalisadores heterogéneos têm vindo a ser estudados para esta reacção. Apesar de muitos apresentarem resultados promissores, a grande maioria não tem viabilidade para aplicação industrial seja devido ao seu próprio custo, seja devido aos pré-tratamentos necessários à sua utilização. Entre estes catalisadores, o óxido de cálcio é talvez o que apresenta resultados mais promissores. O crescente número de estudos envolvendo este catalisador em detrimento de outros, é por si mesmo prova do potencial do CaO. A realização deste trabalho pretendia atingir os seguintes objectivos principais: • Avaliar a elegibilidade do óxido de cálcio enquanto catalisador da reacção de transesterificação de óleos alimentares usados com metanol; • Avaliar qual a sua influência nas características dos produtos finais; • Avaliar as diferenças de performance entre o óxido de cálcio activado em atmosfera inerte (N2) e em ar, enquanto catalisadores da reacção de transesterificação de óleos alimentares usados com metanol; • Optimizar as condições da reacção com recurso às ferramentas matemáticas disponibilizadas pelo planeamento factorial, através da variação de quatro factores chave de influência: temperatura, tempo, relação metanol / óleo e massa de catalisador utilizado. O CaO utlizado foi obtido a partir de carbonato de cálcio calcinado numa mufla a 750 °C durante 3 h. Foi posteriormente activado a 900 °C durante 2h, em atmosferas diferentes: azoto (CaO-N2) e ar (CaO-Ar). Avaliaram-se algumas propriedades dos catalisadores assim preparados, força básica, concentração de centros activos e áreas específicas, tendo-se obtido uma força básica situada entre 12 e 14 para ambos os catalisadores, uma concentração de centros activos de 0,0698 mmol/g e 0,0629 mmol/g e áreas específicas de 10 m2/g e 11 m2/g respectivamente para o CaO-N2 e CaO-Ar. Efectuou-se a transesterificação, com catálise homogénea, da mistura de óleos usados utilizada neste trabalho com o objectivo de determinar os limites para o teor de FAME’s (abreviatura do Inglês de Fatty Acid Methyl Esters’) que se poderiam obter. Foi este o parâmetro avaliado em cada uma das amostras obtidas por catálise heterogénea. Os planos factoriais realizados tiveram como objectivo maximizar a sua quantidade recorrendo à relação ideal entre tempo de reacção, temperatura, massa de catalisador e quantidade de metanol. Verificou-se que o valor máximo de FAME’s obtidos a partir deste óleo estava situado ligeiramente acima dos 95 % (m/m). Realizaram-se três planos factoriais com cada um dos catalisadores de CaO até à obtenção das condições óptimas para a reacção. Não se verificou influência significativa da relação entre a quantidade de metanol e a massa de óleo na gama de valores estudada, pelo que se fixou o valor deste factor em 35 ml de metanol / 85g de óleo (relação molar aproximada de 8:1). Verificou-se a elegibilidade do CaO enquanto catalisador para a reacção estudada, não se tendo observado diferenças significativas entre a performance do CaO-N2 e do CaO-Ar. Identificaram-se as condições óptimas para a reacção como sendo os valores de 59 °C para a temperatura, 3h para o tempo e 1,4 % de massa de catalisador relativamente à massa de óleo. Nas referidas condições, obtiveram-se produtos com um teor de FAME’s de 95,7 % na catálise com CaO-N2 e 95,3 % na catálise com CaO-Ar. Alguns autores de estudos consultados no desenvolvimento do presente trabalho, referiam como principal problema da utilização do CaO, a lixiviação de cálcio para os produtos obtidos. Este facto foi confirmado no presente trabalho e na tentativa de o contornar, tentou-se promover a carbonatação do cálcio com a passagem de ar comprimido através dos produtos e subsequente filtração. Após a realização deste tratamento, não mais se observaram alterações nas suas propriedades (aparecimento de turvação ou precipitados), no entanto, nos produtos obtidos nas condições óptimas, a concentração de cálcio determinada foi de 527 mg/kg no produto da reacção catalisada com CaO-N2 e 475 mg/kg com CaO-A. O óxido de cálcio apresentou-se como um excelente catalisador na transesterificação da mistura de óleos alimentares usados utilizada no presente trabalho, apresentando uma performance ao nível da obtida por catálise homogénea básica. Não se observaram diferenças significativas de performance entre o CaO-N2 e o CaO-Ar, sendo possível obter nas mesmas condições reaccionais produtos com teores de FAME’s superiores a 95 % utilizando qualquer um deles como catalisador. O elevado teor de cálcio lixiviado observado nos produtos, apresenta-se como o principal obstáculo à aplicação a nível industrial do óxido de cálcio como catalisador para a transesterificação de óleos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A qualidade é um factor-chave na indústria automóvel. Todos os fornecedores de componentes para a indústria automóvel estão sujeitos a qualificações e auditorias sistemáticas, com vista a melhorar os processos e verificar a sua rastreabilidade. Quando os processos assentam essencialmente em mão-de-obra intensiva, torna-se muito mais difícil atingir a ambicionada meta dos zero-defeitos, e a garantia da qualidade pode ficar comprometida, sendo necessário instalar procedimentos de controlo mais apurados. No entanto, se o processo ou processos forem convenientemente definidos, e se optar por capital intensivo em detrimento da mão-de-obra intensiva, a garantia da qualidade pode ser uma realidade, podendo ser fortemente minimizadas as operações de controlo da qualidade. Este trabalho teve por base a necessidade de reduzir fortemente, ou eliminar mesmo, o aparecimento de defeitos de montagem num sistema designado por remachado. Após cuidada análise do processo instalado, já parcialmente automatizado, mas ainda fortemente dependente de mão-de-obra, procedeu-se ao projecto de um equipamento capaz de reproduzir o mesmo efeito, mas que acomodasse alguns possíveis defeitos oriundos dos fornecedores dos componentes que são inseridos neste conjunto, colocados a montante na cadeia de fornecimento do produto. O equipamento resultante deste trabalho permitiu baixar o tempo de ciclo, acomodar a variabilidade dimensional detectada nos componentes que constituem o conjunto e reduzir drasticamente o número de não-conformidades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Harnessing idle PCs CPU cycles, storage space and other resources of networked computers to collaborative are mainly fixated on for all major grid computing research projects. Most of the university computers labs are occupied with the high puissant desktop PC nowadays. It is plausible to notice that most of the time machines are lying idle or wasting their computing power without utilizing in felicitous ways. However, for intricate quandaries and for analyzing astronomically immense amounts of data, sizably voluminous computational resources are required. For such quandaries, one may run the analysis algorithms in very puissant and expensive computers, which reduces the number of users that can afford such data analysis tasks. Instead of utilizing single expensive machines, distributed computing systems, offers the possibility of utilizing a set of much less expensive machines to do the same task. BOINC and Condor projects have been prosperously utilized for solving authentic scientific research works around the world at a low cost. In this work the main goal is to explore both distributed computing to implement, Condor and BOINC, and utilize their potency to harness the ideal PCs resources for the academic researchers to utilize in their research work. In this thesis, Data mining tasks have been performed in implementation of several machine learning algorithms on the distributed computing environment.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O planeamento de redes de distribuição tem como objetivo assegurar a existência de capacidade nas redes para a fornecimento de energia elétrica com bons níveis de qualidade de serviço tendo em conta os fatores económicos associados. No âmbito do trabalho apresentado na presente dissertação, foi elaborado um modelo de planeamento que determina a configuração de rede resultante da minimização de custos associados a: 1) perdas por efeito de joule; 2) investimento em novos componentes; 3) energia não entregue. A incerteza associada ao valor do consumo de cada carga é modelada através de lógica difusa. O problema de otimização definido é resolvido pelo método de decomposição de benders que contempla dois trânsitos de potências ótimos (modelo DC e modelo AC) no problema mestre e escravo respectivamente para validação de restrições. Foram também definidos critérios de paragem do método de decomposição de benders. O modelo proposto classifica-se como programação não linear inteira mista e foi implementado na ferramenta de otimização General Algebraic Modeling System (GAMS). O modelo desenvolvido tem em conta todos componentes das redes para a otimização do planeamento, conforme podemos analisar nos casos de estudo implementados. Cada caso de estudo é definido pela variação da importância que cada uma das variáveis do problema toma, tendo em vista cobrir de alguma todos os cenários de operação expetáveis. Através destes casos de estudo verifica-se as várias configurações que a rede pode tomar, tendo em conta as importâncias atribuídas a cada uma das variáveis, bem como os respetivos custos associados a cada solução. Este trabalho oferece um considerável contributo no âmbito do planeamento de redes de distribuição, pois comporta diferentes variáveis para a execução do mesmo. É também um modelo bastante robusto não perdendo o ‘norte’ no encontro de solução para redes de grande dimensão, com maior número de componentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento descreve um modelo de tolerância a falhas para sistemas de tempo-real distribuídos. A sugestão deste modelo tem como propósito a apresentação de uma solu-ção fiável, flexível e adaptável às necessidades dos sistemas de tempo-real distribuídos. A tolerância a falhas é um aspeto extremamente importante na construção de sistemas de tempo-real e a sua aplicação traz inúmeros benefícios. Um design orientado para a to-lerância a falhas contribui para um melhor desempenho do sistema através do melhora-mento de aspetos chave como a segurança, a confiabilidade e a disponibilidade dos sis-temas. O trabalho desenvolvido centra-se na prevenção, deteção e tolerância a falhas de tipo ló-gicas (software) e físicas (hardware) e assenta numa arquitetura maioritariamente basea-da no tempo, conjugada com técnicas de redundância. O modelo preocupa-se com a efi-ciência e os custos de execução. Para isso utilizam-se também técnicas tradicionais de to-lerância a falhas, como a redundância e a migração, no sentido de não prejudicar o tempo de execução do serviço, ou seja, diminuindo o tempo de recuperação das réplicas, em ca-so de ocorrência de falhas. Neste trabalho são propostas heurísticas de baixa complexida-de para tempo-de-execução, a fim de se determinar para onde replicar os componentes que constituem o software de tempo-real e de negociá-los num mecanismo de coordena-ção por licitações. Este trabalho adapta e estende alguns algoritmos que fornecem solu-ções ainda que interrompidos. Estes algoritmos são referidos em trabalhos de investiga-ção relacionados, e são utilizados para formação de coligações entre nós coadjuvantes. O modelo proposto colmata as falhas através de técnicas de replicação ativa, tanto virtual como física, com blocos de execução concorrentes. Tenta-se melhorar ou manter a sua qualidade produzida, praticamente sem introduzir overhead de informação significativo no sistema. O modelo certifica-se que as máquinas escolhidas, para as quais os agentes migrarão, melhoram iterativamente os níveis de qualidade de serviço fornecida aos com-ponentes, em função das disponibilidades das respetivas máquinas. Caso a nova configu-ração de qualidade seja rentável para a qualidade geral do serviço, é feito um esforço no sentido de receber novos componentes em detrimento da qualidade dos já hospedados localmente. Os nós que cooperam na coligação maximizam o número de execuções para-lelas entre componentes paralelos que compõem o serviço, com o intuito de reduzir atra-sos de execução. O desenvolvimento desta tese conduziu ao modelo proposto e aos resultados apresenta-dos e foi genuinamente suportado por levantamentos bibliográficos de trabalhos de in-vestigação e desenvolvimento, literaturas e preliminares matemáticos. O trabalho tem também como base uma lista de referências bibliográficas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ciências Musicais

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta o trabalho realizado no âmbito da unidade curricular de Tese/Dissertação (TEDI), do 2º ano, do Mestrado em Engenharia Eletrotécnica e de Computadores no ramo de Automação e Sistemas. O principal objetivo desta dissertação consiste no desenvolvimento de um sistema que permita efetuar a deteção de um determinado número de anomalias num sinal eletrocardiográfico. O coração é um dos órgãos mais importantes do corpo humano. É ele que recebe e bombeia o sangue pelo organismo. Isto é, recebe sangue pobre em oxigénio, encaminha-o para os pulmões onde será enriquecido em oxigénio. O sangue enriquecido em oxigénio é então encaminhado novamente para o coração que será enviado para todas as partes do corpo humano. O eletrocardiograma desempenha um papel fundamental de modo a diagnosticar eventuais anomalias no correto funcionamento do coração. Estas anomalias podem dever-se a diversos fatores como tabaco, colesterol, pressão sanguínea alta ou diabetes entre outros. As anomalias associadas ao ritmo cardíaco são denominadas de arritmias. As arritmias são fundamentalmente originadas pela alteração da frequência ou do ritmo cardíaco. Utilizando a lógica difusa, pretendeu-se desenvolver um sistema que fizesse a identificação de um determinado número de tipos de batimentos entre os quais: o bloqueio do ramo esquerdo (LBBB), bloqueio do ramo direito (RBBB), contração prematura ventricular (VPC) e contração prematura auricular (APC). Todos os desenvolvimentos efetuados, a nível de programação, são neste documento relatados de forma a constituírem um possível guia para a utilização deste tipo de sistemas. Mais ainda, descrevem-se nele toda a pesquisa efetuada e as alternativas de desenvolvimento selecionadas. O Sistema de Deteção de Arritmias (SDA) desenvolvido mostrou-se eficaz desde que o utilizador consiga identificar corretamente os parâmetros que lhe são pedidos. A interface gráfica desenvolvida permitiu também uma maior facilidade durante a análise do sinal eletrocardiográfico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As distribuições de Lei de Potência (PL Power Laws), tais como a lei de Pareto e a lei de Zipf são distribuições estatísticas cujos tamanhos dos eventos são inversamente proporcionais à sua frequência. Estas leis de potência são caracterizadas pelas suas longas caudas. Segundo Vilfredo Pareto (1896), engenheiro, cientista, sociólogo e economista italiano, autor da Lei de Pareto, 80% das consequências advêm de 20% das causas. Segundo o mesmo, grande parte da economia mundial segue uma determinada distribuição, onde 80% da riqueza mundial é detida por 20% da população ou 80% da poluição mundial é feita por 20% dos países. Estas percentagens podem oscilar nos intervalos [75-85] e [15-25]. A mesma percentagem poderá ser aplicada à gestão de tempo, onde apenas 20% do tempo dedicado a determinado assunto produzirá cerca de 80% dos resultados obtidos. A lei de Pareto, também designada de regra 80/20, tem aplicações nas várias ciências e no mundo físico, nomeadamente na biodiversidade. O número de ocorrências de fenómenos extremos, aliados ao impacto nas redes de telecomunicações nas situações de catástrofe, no apoio imediato às populações e numa fase posterior de reconstrução, têm preocupado cada vez mais as autoridades oficiais de protecção civil e as operadoras de telecomunicações. O objectivo é o de preparar e adaptarem as suas estruturas para proporcionar uma resposta eficaz a estes episódios. Neste trabalho estuda-se o comportamento de vários fenómenos extremos (eventos críticos) e aproximam-se os dados por uma distribuição de Pareto (Lei de Pareto) ou lei de potência. No final, especula-se sobre a influência dos eventos críticos na utilização das redes móveis. É fundamental que as redes móveis estejam preparadas para lidar com as repercussões de fenómenos deste tipo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os crescentes custos ligados ao consumo elétrico, não apenas de cariz financeiro mas também ambiental, despertam cada vez mais para a importância da definição de estratégias de melhor utilização de recursos e eficiência energética. Esta importância tem sido reforçada pela definição de decretos-lei que vêm colocar metas e limites relativamente às despesas energéticas. Estes diplomas são também acompanhados por programas de incentivo para um setor ligado à eficiência energética. Em Portugal as medidas ligadas ao setor tem vindo a ser redirecionadas para o consumo final de energia, com a definição de metas para as instalações de maior consumo. As instalações hospitalares são grandes centros de consumo energético devido não só ao elevado número de utentes que recebem mas também pelos diversos tipos de equipamentos elétricos usados para a prestação dos serviços médicos. Como consequência disso, os investimentos e os custos operacionais são elevados, o que reforça a necessidade de gerir os gastos e consumos energéticos com a procura constante de melhoria na recolha de informação sobre todo o sistema e na adequação de intervenções com vista a uma maior eficiência energética. O Hospital Pedro Hispano vem desde algum tempo a investir no sentido de conhecer mais e melhor toda a instalação bem como os consumos energéticos a ela associados. Algumas medidas foram tomadas nesse sentido nomeadamente a instalação de analisadores de energia, de modo a obter um retrato mais fiel e fidedigno dos principais vetores de consumo. Neste momento a gestão técnica do hospital tem em análise uma grande parte da instalação recolhendo dados do consumo elétrico real do hospital. Nesta dissertação procurou-se fazer uma análise e enquadramento dos programas e metas ligados ao setor energético com ênfase nos diplomas que visão e abrangem as instalações hospitalares. Dos vários programas de incentivo à adoção de políticas de maior eficiência energética é dado especial destaque ao programa ECO.AP que visa a celebração de contratos para implementação de medidas de poupança energética ao setor público. Em colaboração com o HPH, iniciaram-se os trabalhos pelo estudo e identificação das principais fases e ferramentas utilizadas na gestão energética do edifício tendo como objetivo a reavaliação dos vetores energéticos já identificados no HPH e a criação e contabilização de novos grupos de consumo. Através de várias medições do consumo elétrico, num total superior a 650 horas de funcionamento, foi possível a criação do mapa de desagregação de consumos para o ano de 2013. A desagregação realizada conta com 3 novos vetores energéticos e com a reavaliação do peso relativo de mais 5 grupos de consumo. Das medições efetuadas destaca-se a reavaliação do consumo da central de bombagem onde a parcela considerada até à data estava 3 vezes acima do valor real medido. Com base na desagregação feita foram apontadas e estudadas medidas de implementação com o objetivo de reduzir os consumos energético em todo o hospital, destacando-se a solução apresentada para a central de bombagem. Esta medida traria um grande impacto em toda a fatura energética, não só pela sua viabilidade, mas também porque atuaria num grande centro de consumo onde até ao momento nenhuma ação do género foi implementada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As aplicações móveis de serviços baseados na localização, denominados LBS (Location-based services), disponibilizam serviços ao utilizador baseadas na sua localização geográfica. Este tipo de serviços começou a surgir ainda na década de 90 e, à medida que o número de dispositivos móveis cresceu de forma exponencial, a sua oferta disparou consideravelmente. Existem várias áreas com aplicabilidade prática, mas o foco desta tese é a pesquisa e localização de pontos de interesse (POI’s). Através dos sensores que os dispositivos móveis atualmente disponibilizam, torna-se possível localizar a posição do utilizador e apresentar-lhe os pontos de interesse que estão situados em seu redor. No entanto essa informação isolada revela-se por vezes insuficiente, uma vez que esses pontos de interesse são à partida desconhecidos para o utilizador. Através do serviço coolplaces, um projeto que pretende dedicar-se à pesquisa e partilha de POI’s, podemos criar a nossa rede de amigos e de locais, beneficiando assim da respetiva informação de contexto de um determinado POI. As inovações tecnológicas permitiram também o aparecimento de aplicações de Realidade Aumentada nos dispositivos móveis, isto é, aplicações capazes de sobrepor imagens virtuais a visualizações do mundo real. Considerando a visualização de POI’s num dado ambiente, se encararmos a Realidade Aumentada como um potenciador da interação do utilizador com o mundo real, rapidamente identificamos as potencialidades da junção destes conceitos numa só aplicação. Sendo assim, o trabalho desenvolvido nesta tese pretende constituir um estudo sobre a implementação e desenvolvimento de um módulo de Realidade Aumentada para a aplicação móvel do serviço coolplaces, fazendo uso da tecnologia disponível no mercado de forma a proporcionar uma experiência inovadora e acrescentar valor à referida aplicação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento de aplicações para dispositivos móveis já não é uma área recente, contudo continua a crescer a um ritmo veloz. É notório o avanço tecnológico dos últimos anos e a crescente popularidade destes dispositivos. Este avanço deve-se não só à grande evolução no que diz respeito às características destes dispositivos, mas também à possibilidade de criar aplicações inovadoras, práticas e passíveis de solucionar os problemas dos utilizadores em geral. Nesse sentido, as necessidades do quotidiano obrigam à implementação de soluções que satisfaçam os utilizadores, e nos dias de hoje, essa satisfação muitas vezes passa pelos dispositivos móveis, que já tem um papel fundamental na vida das pessoas. Atendendo ao aumento do número de raptos de crianças e à insegurança que se verifica nos dias de hoje, as quais dificultam a tarefa de todos os pais/cuidadores que procuraram manter as suas crianças a salvo, é relevante criar uma nova ferramenta capaz de os auxiliar nesta árdua tarefa. A partir desta realidade, e com vista a cumprir os aspetos acima mencionados, surge assim esta dissertação de mestrado. Esta aborda o estudo e implementação efetuados no sentido de desenvolver um sistema de monitorização de crianças. Assim, o objetivo deste projeto passa por desenvolver uma aplicação nativa para Android e um back-end, utilizando um servidor de base de dados NoSQL para o armazenamento da informação, aplicando os conceitos estudados e as tecnologias existentes. A solução tem como principais premissas: ser o mais user-friendly possível, a otimização, a escalabilidade para outras situações (outros tipos de monitorizações) e a aplicação das mais recentes tecnologias. Assim sendo, um dos estudos mais aprofundados nesta dissertação de mestrado está relacionado com as bases de dados NoSQL, dada a sua importância no projeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos dias de hoje usar o transporte público para nos deslocarmos de uma determinada origem para um determinado destino é uma realidade na vida da maioria das pessoas. Muitas destas deslocações fazem parte da rotina diária do cidadão, que depende destes transportes para as suas atividades do dia-a-dia. Nos últimos anos, o número de cidadãos que usa os transportes públicos como meio de deslocação tem vindo a aumentar consideravelmente. Contudo, a maioria dos operadores de transportes públicos pecam pela falta de pontualidade dos seus serviços, e pela falta de informação disponível ao cidadão acerca dos horários dos mesmos em tempo real. Tendo este problema em conta, foi desenvolvida uma solução capaz de realizar uma previsão do tempo de chegada de um transporte público, ao longo de todo o seu serviço. Previsão essa que é atualizada ao longo do percurso de forma a reduzir a margem de erro da informação apresentada. Com esta informação o cidadão pode planear melhor o seu dia e decidir qual é a melhor altura para se deslocar para a paragem, evitando ao máximo a perda de tempo à espera do seu transporte público. A solução final foi desenvolvida com a ajuda da empresa BEWARE e teve como objetivo a criação de uma aplicação web capaz de apresentar os tempos de espera dos autocarros em diferentes tipos de vista, bem como o acompanhamento do mesmo ao longo do percurso. Toda a informação utilizada na aplicação web foi criada por dois serviços de apoio que efetuam o controlo do autocarro ao longo do percurso, bem como os cálculos da previsão dos tempos de espera. O projeto foi dividido em quatro constituintes que foram repetidas durante o desenvolvimento da solução. A primeira constou na análise do problema, no levantamento e definição dos requisitos. A segunda incluiu o desenvolvimento de um algoritmo capaz de validar a posição do autocarro ao longo do seu percurso, detetando a paragem onde este se encontra e a hora de chegada à mesma. A terceira abrangeu o desenvolvimento de um algoritmo capaz de prever o tempo de chegada de um autocarro às paragens definidas na sua rota, recorrendo ao histórico de viagens realizadas anteriormente. A quarta consistiu no desenvolvimento da aplicação web, implementando todas as funcionalidades necessárias para que a aplicação consiga realizar o acompanhamento do autocarro no percurso, a consulta dos tempos de chegada e da previsão dos tempos às paragens seguintes recorrendo a três tipos de vistas diferentes, e a possibilidade de agendar notificações de forma a receber no email as previsões dos tempos de chegada nos dias e horas mais significativos para o utilizador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Politécnico do Porto - Instituto Superior de Contabilidade e Administração do Porto, para obtenção do Grau de Mestre em Assessoria e Administração de Organizações, sob orientação de Anabela Mesquita, PhD

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o advento da invenção do modelo relacional em 1970 por E.F.Codd, a forma como a informação era gerida numa base de dados foi totalmente revolucionada. Migrou‐se de sistemas hierárquicos baseados em ficheiros para uma base de dados relacional com tabelas relações e registos que simplificou em muito a gestão da informação e levou muitas empresas a adotarem este modelo. O que E.F.Codd não previu foi o facto de que cada vez mais a informação que uma base de dados teria de armazenar fosse de proporções gigantescas, nem que as solicitações às bases de dados fossem da mesma ordem. Tudo isto veio a acontecer com a difusão da internet que veio ligar todas as pessoas de qualquer parte do mundo que tivessem um computador. Com o número de adesões à internet a crescer, o número de sites que nela eram criados também cresceu (e ainda cresce exponencialmente). Os motores de busca que antigamente indexavam alguns sites por dia, atualmente indexam uns milhões de sites por segundo e, mais recentemente as redes sociais também estão a lidar com quantidades gigantescas de informação. Tanto os motores de busca como as redes sociais chegaram à conclusão que uma base de dados relacional não chega para gerir a enorme quantidade de informação que ambos produzem e como tal, foi necessário encontrar uma solução. Essa solução é NoSQL e é o assunto que esta tese vai tratar. O presente documento visa definir e apresentar o problema que as bases de dados relacionais têm quando lidam com grandes volumes de dados, introduzir os limites do modelo relacional que só até há bem pouco tempo começaram a ser evidenciados com o surgimento de movimentos, como o BigData, com o crescente número de sites que surgem por dia e com o elevado número de utilizadores das redes sociais. Será também ilustrada a solução adotada até ao momento pelos grandes consumidores de dados de elevado volume, como o Google e o Facebook, enunciando as suas características vantagens, desvantagens e os demais conceitos ligados ao modelo NoSQL. A presente tese tenciona ainda demonstrar que o modelo NoSQL é uma realidade usada em algumas empresas e quais as principias mudanças a nível programático e as boas práticas delas resultantes que o modelo NoSQL traz. Por fim esta tese termina com a explicação de que NoSQL é uma forma de implementar a persistência de uma aplicação que se inclui no novo modelo de persistência da informação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hoje em dia, com os avanços constantes na indústria, novas áreas começam cada vez mais a ser foco de atenção por parte das organizações. Motivados pela procura de melhores condições para os seus colaboradores e por todos os benefícios que este tipo de intervenção oferece, tanto a curto, como principalmente a médio e longo prazo, a Grohe Portugal, mais especificamente o seu departamento de montagem, achou relevante potenciar a aplicação da Ergonomia nos seus postos de trabalho. Posto isto, esta dissertação pretende apresentar o trabalho desenvolvido junto da organização que teve como objetivo projetar e executar uma linha de montagem que tivesse em consideração os seguintes aspetos: • Ergonomia; • Automatização ou semi-automatização de operações; • Simplificação de aspetos operacionais; • Sistemas de abastecimento mais robustos e de fácil uso; • Simplificação de setups; • Definição de dimensões normalizadas para futuros projetos. As soluções encontradas tiveram como objetivo primordial satisfazer o maior número possível de colaboradores, sendo que para tal foram utilizados dados referentes a antropometria da população Portuguesa. Para a realização e conclusão deste projeto, o trabalho foi decomposto em varias etapas, de entre as quais se destacam: • Analise e estudo dos métodos de montagem; • Levantamento de todos os componentes e operações que constituem o processo de fabrico das diversas famílias onde foram implementados novos projetos; • Definição e uniformização da estrutura das novas linhas de montagem; • Estudo e definição da disposição dos componentes na nova linha, bem como da sua forma de abastecimento; • Projeto da linha de montagem em 3D com recurso ao software SolidWorks (DassaultSystemes, 2014); • Montagem final da linha, bem como o acompanhamento da sua fase de arranque. Durante o estagio foi ainda pensado e implementado um projeto paralelo com vista a constante manutenção e melhoria do departamento de montagem cujo objetivo, através de “plant walks”, e detetar de entre outras, situações de falta de identificação de componentes ou equipamentos, degradação de ferramentas, fugas ou derrames nas linhas, etc. O balanco final do trabalho foi bastante positivo, tendo-se alcançado melhorias em alguns índices de qualidade, tempos de abastecimento e condições ergonómicas dos postos de trabalho que sofreram intervenção, tendo essas melhorias resultado numa avaliação positiva por parte dos colaboradores que integram essas mesmas linhas.