39 resultados para Carteira de Acções com Pesos Iguais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação teve como finalidade a realização de uma Auditoria Energética e da Qualidade do Ar Interior ao edifício de serviços da Câmara Municipal de Vila Nova de Gaia. No intuito de alcançar esta finalidade foram seguidos, em todo o processo, os regulamentos em vigor até à presente data da dissertação, de apoio à especialidade, nomeadamente o Regulamento das Características de Comportamento Térmico dos Edifícios, Regulamento dos Sistemas Energéticos de Climatização em Edifícios e Regulamento dos Sistemas Energéticos de Climatização em Edifícios e da Qualidade do Ar Interior. Na análise à Qualidade do Ar Interior foram verificados quase todos os parâmetros impostos por lei, exceto os das bactérias e dos fungos. Para as substâncias como dióxido de carbono (CO2), monóxido de carbono (CO), ozono (O3), formaldeído (HCOH) e radão, os valores em média foram iguais a 894 ppm, 1,23 ppm, 0,07 ppm, 0,01 ppm e 378 Bq/m3 e estavam dentro dos limites regulamentares (984 ppm, 10,7ppm, 0,10 ppm, 0,08 ppm e 400 Bq/m3). Para os compostos orgânicos voláteis (COVs) e partículas do tipo PM10, os valores respetivos foram em média de 0,70 ppm e 0,16 mg/m3 e estavam acima dos limites regulamentares (0,26 ppm, 0,15 mg/m3). Admite-se que existem fontes emissoras de COVs dentro do edifício e que, para uma adequação ao tipo de tratamento ou sugestão de melhoria, seria necessário realizar uma análise por cromatografia de forma a identificar os compostos em causa. As concentrações de PM10 mais elevadas explicam-se porque existe uma abertura direta desses espaços ao exterior e em alguns casos esta é permanente. A análise energética permitiu um levantamento de todos os consumos de energia elétrica do edifício, realizando deste modo a desagregação em percentagem de cada equipamento consumidor. Em paralelo e até para se poder realizar a certificação energética do edifício foi realizado um estudo de simulação térmica dinâmica recorrendo ao programa DesignBuilder v2. Criou-se um modelo do edifício que foi validado após simulação e comparação com o consumo elétrico do ano de referência (desvio de 2,78%). Pela simulação verificou-se que os maiores consumidores de energia são a iluminação interior e o sistema de arrefecimento e determinou-se os Indicadores de Eficiência Energética (IEE) Real (com correção climática) e Nominal com valores de 73,8 e 46,5 , respetivamente. Implementando as condições nominais de utilização e funcionamento no edifício, segundo o Regulamento dos Sistemas Energéticos de vi Climatização em Edifícios (RSECE), concluiu-se que a classe energética deste edifício é do tipo D. O valor do IEE nominal foi superior ao IEE referência de 35,5 , e o requisito legal não se verificou. Assim, foi necessário apresentar medidas para um plano de racionalização energética (PRE). Nas medidas estudadas de melhoria da eficiência energética (aplicação de películas solares, compensação do fator de potência, instalação de um sistema de minigeração fotovoltaico e aplicação de iluminação eficiente tanto no interior como no exterior do edifício) destaca-se a correção do fator de potência, pois o valor pago de energia reactiva em 2011 foi de cerca de 1500 €. Admitindo ser necessário redimensionar os condensadores e que o custo é 1.840,00 €, ter-se-á um retorno do investimento em 1,2 anos. Outra medida é a aplicação de películas solares nos envidraçados com um custo de 5.046,00 €, esta terá um período de retorno de 1 ano e uma poupança de 37,90 MWh/ano. Finalmente refere-se a instalação de reguladores de tensão e substituição de determinadas lâmpadas por LEDs na iluminação interior, que prevê uma poupança anual de 25 MWh/ano e um período de retorno do investimento de 3,7 anos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este projecto tem como objectivo a optimização das rotas dos técnicos de serviço após venda da Schmitt+Sohn Elevadores, associadas à realização das manutenções preventivas a cada elemento contratado à empresa (elevadores, escadas rolantes, etc). Como tal, é necessário fazer uma distribuição dos equipamentos que se encontram em carteira, por um dos técnicos que assegura a manutenção, pelos vários dias úteis de cada mês, e pelas horas de trabalho de cada dia. Apesar do técnico ter disponíveis, por dia, 8h de trabalho, apenas 6h podem ser preenchidas com manutenções preventivas. As 2h restantes são essencialmente para possíveis manutenções correctivas para as quais o técnico seja solicitado. Caso o técnico não seja contactado para resolver nenhuma avaria, essas horas podem ser utilizadas pelo mesmo para adiantar trabalho do dia seguinte, isto é, visitar já alguns dos próximos pontos de manutenção preventiva do dia seguinte, ou para compensar trabalho que esteja atrasado. De salientar que, para cada dia, as deslocações do técnico de qualquer local ao primeiro ponto de uma rota ou de regresso do último ponto de uma rota não são contabilizadas. O trabalho desenvolvido nesta dissertação pretende dar resposta ao problema apresentado pela Schmitt+Sohn Elevadores. Para isso foi desenvolvida uma heurística para a optimização das rotas dos técnicos. Esta é baseada no conceito de “vizinho mais próximo” que procura sempre o ponto que se apresenta mais perto do último ponto que foi adicionado à rota. Com base nesta metodologia, nos processos de escolha dos pontos que formam clusters, e na selecção dos pontos iniciais de cada uma das rotas diárias, a ferramenta de optimização resultante define as rotas diárias para que o percurso efectuado por cada técnico num mês seja o menor possível. São feitas alterações às rotas definidas inicialmente quando encontrados pontos de uma mesma entrada a serem visitados em dias diferentes. Isto obrigaria o técnico a fazer duas viagens ao mesmo local. Por fim, o resultado é apresentado num documento Word a ser utilizado pelo técnico como guia diário das suas deslocações aos equipamentos que necessitam de verificações periódicas. Os resultados obtidos foram comparados com as rotas que estavam a ser usadas pela empresa, tendo apresentado resultados de melhor qualidade, constatando-se a eficiência da solução criada pelo algoritmo proposto neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho pretende abordar aspectos relacionados com o controlo de compactação em aterros, com base na avaliação de parâmetros “in situ”, tais como: pesos volúmicos, teores em água, graus de compactação e módulos de deformabilidade. Recorrendo aos métodos correntes no controlo de compactação, como o ensaio de carga em placa, gamadensímetro, garrafa e ao ensaio de deflectómetro de impacto portátil. Visa-se comparar os resultados obtidos, nas diferentes condições, de modo a possibilitar alcançar correlações entre os ensaios, bem como determinar aqueles que apresentam maior grau de confiança técnico e vantagens operacionais e económicas. De modo a garantir os índices de qualidade da obra é necessário fazer cumprir os critérios exigidos pelo caderno de encargos, nomeadamente nos parâmetros de avaliação do controlo de compactação, para que estas satisfaçam o seu estado funcional e estrutural. Neste tipo de obras os cadernos de encargos de referência em Portugal são os das Estradas de Portigal (EP) e da Brisa, Auto-estradas de Portugal (Brisa), os quais se baseiam em recomendações de classificações de solos. No contexto experimental, foram efectuados dois estudos com condições e materiais diferentes, em obras pertencentes à empresa Mota-Engil Engenharia e Construções, S.A. Nas campanhas de ensaios foram realizados ensaios “in situ” na obra da Subconcessão do Douro Interior – Lote 6 – IC5 – Troço Murça/ Nó de Pombal nas camadas de sub-base e base num agregado de granulometria extensa, e na obra de modernização do troço ferroviário Bombel e Vidigal a Évora, em solos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fabricação de moldes é uma actividade que se desenvolve em Portugal há várias décadas, com qualidade reconhecida mundialmente. A indústria automóvel é um dos principais destinos de grande parte dos moldes produzidos em Portugal. Algumas das peças produzidas nesses moldes possuem dimensões apreciáveis, tendo em conta o peso e dimensão média das peças injectadas em plástico. São exemplo disso os pára-choques dos automóveis e o tabliê. A produção dos moldes para estas peças é complexa, implicando um longo tempo de maquinagem e a manipulação dos moldes em diferentes fases, com vista ao acesso a todas as faces do molde. A IGM – Indústria Global de Moldes, SA. é a empresa responsável pela produção dos moldes para peças de média dimensão dentro do Grupo SIMOLDES. Atendendo à necessidade permanente de rodar a 90o moldes de grande porte, que podem apresentar pesos na ordem das 10 a 30 toneladas, e não existindo no mercado qualquer solução adaptável a esta necessidade, a empresa entendeu por bem levar a efeito o projecto desse equipamento, atendendo ao compromisso custo-benefício que torne viável a realização prática do mesmo. Após os esboços iniciais e uma discussão interactiva e iterativa com a empresa, foram analisadas as diferentes soluções entendidas como viáveis, tendo sido escolhido um dos anteprojectos realizados. Foram ainda discutidas as diversas alternativas de accionamento. Com base nesse anteprojecto, a estrutura foi optimizada e verificada através do Método de Elementos Finitos, tendo sido elaborado o projecto final, com o grau de detalhe necessário à sua fabricação e implementação na empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o crescente aumento de utilizadores e da importância no quotidiano de uma grande parte da população mundial, a Internet disponibiliza hoje às empresas, um conjunto de oportunidades que devidamente aproveitadas, se poderão traduzir na captação de novos clientes e no aumento da notoriedade da marca. Tem-se assistido nos últimos anos a um crescimento considerável do investimento das empresas em Marketing Digital, fazendo uso das mais variadas ferramentas que potenciam e aumentam a sua presença online. Decorrente do aumento de competividade no meio digital, têm surgido diversos casos de startups que desenvolveram e aplicaram técnicas e acções de marketing digital inovadoras, que se traduziram num crescimento exponencial do seu número de clientes/utilizadores. Desta forma, o presente trabalho tem como principais objetivos identificar o conceito de Growth Hacking, principais tácticas e ferramentas utilizadas, e avaliar qual impacto que o mesmo poderá ter para o sucesso de uma organização no meio online. Recorrendo ao estudo de dois casos de sucesso é feita uma análise das estratégias adotadas pelas empresas Uber e Dropbox e apresentadas as principais caraterísticas que as diferenciam e que permitiram o seu sucesso no meio digital.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O intenso intercâmbio entre os países, resultante do processo de globalização, veio acrescer importância ao mercado de capitais. Os países em desenvolvimento procuram abrir as suas economias para receber investimentos externos. Quanto maior for o grau de desenvolvimento de uma economia mais ativo será o seu mercado de capitais. No entanto, tem-se verificado uma tendência de substituição de enfoque económico, que antes era mais dirigido ao planeamento empresarial para metas mais ligadas ao meio ambiente. O mercado de capitais é um sistema de distribuição de valores mobiliários cujo objectivo é proporcionar liquidez a títulos emitidos pelas empresas, com a finalidade de viabilizar o processo de capitalização desses papéis. O mercado de capitais é composto pelas bolsas de valores, sociedades corretoras e outras instituições financeiras que têm autorização da Comissão de Valores dos Mercados Mobiliários (CMVM). O mercado bolsista insere-se no mercado de capitais. Nesses mercados, é importante conseguir conjuntamente a maximização dos recursos (retornos) e minimização dos custos (riscos). O principal objectivo das bolsas de valores é promover um ambiente de negociação dos títulos e dos valores mobiliários das empresas. Muitos investidores têm a sua própria maneira de investir, consoante o perfil que cada um tem. Além do perfil dos investidores, é também pertinente analisar a questão do risco. Vaughan (1997) observa que, nos dias atuais, a questão da administração do risco está presente na vida de todos. Este trabalho tem o propósito de demonstrar a necessidade da utilização de ferramentas para a seleção de ativos e para a mensuração do risco e do retorno de aplicações de recursos financeiros nesses activos de mercados de capitais, por qualquer tipo de investidor, mais especificamente na compra de ações e montagem de uma carteira de investimento. Para isso usou-se o método de Elton e Gruber, analisou-se as rentabilidades, os riscos e os índices de desempenho de Treynor e Sharpe. Testes estatísticos para os retornos das ações foram executados visando analisar a aleatoriedade dos dados. Este trabalho conclui que pode haver vantagens na utilização do método de Elton e Gruber para os investidores propensos a utilzar ações de empresas socialmente responsáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos tem-se assistido à introdução de novos dispositivos de medição da poluição do ar baseados na utilização de sensores de baixo custo. A utilização menos complexa destes sistemas, possibilita a obtenção de dados com elevada resolução temporal e espacial, abrindo novas oportunidades para diferentes metodologias de estudos de monitorização da poluição do ar. Apesar de apresentarem capacidades analíticas distantes dos métodos de referência, a utilização destes sensores tem sido sugerida e incentivada pela União Europeia no âmbito das medições indicativas previstas na Diretiva 2008/50/CE, com uma incerteza expandida máxima de 25%. O trabalho desenvolvido no âmbito da disciplina de Projeto consistiu na escolha, caracterização e utilização em medições reais de um sensor de qualidade do ar, integrado num equipamento protótipo desenvolvido com esse fim, visando obtenção uma estimativa da incerteza de medição associada à utilização deste dispositivo através da aplicação da metodologia de demonstração de equivalência de métodos de medição de qualidade do ar definida pela União Europeia. A pesquisa bibliográfica realizada permitiu constatar que o monóxido de carbono é neste momento o parâmetro de qualidade do ar que permite ser medido de forma mais exata através da utilização de sensores, nomeadamente o sensor eletroquímico da marca Alphasense, modelo COB4, amplamente utilizado em projetos de desenvolvimento neste cotexto de monitorização ambiental. O sensor foi integrado num sistema de medição com o objetivo de poder ser utlizado em condições de autonomia de fornecimento de energia elétrica, aquisição interna dos dados, tendo em consideração ser o mais pequeno possível e de baixo custo. Foi utlizado um sistema baseado na placa Arduino Uno com gravação de dados em cartão de memória SD, baterias e painel solar, permitindo para além do registo das tensões elétricas do sensor, a obtenção dos valores de temperatura, humidade relativa e pressão atmosférica, com um custo global a rondar os 300 euros. Numa primeira fase foram executados um conjunto de testes laboratoriais que permitiram a determinação de várias características de desempenho em dois sensores iguais: tempo de resposta, a equação modelo do sensor, avaliação da repetibilidade, desvio de curto e longo termo, interferência da temperatura e histerese. Os resultados demonstraram um comportamento dos sensores muito linear, com um tempo de resposta inferior a um minuto e com uma equação modelo do sensor dependente da variação da temperatura. A estimativa da incerteza expandida laboratorial ficou, para ambos os sensores, abaixo dos 10%. Após a realização de duas campanhas reais de medição de CO em que os valores foram muito baixos, foi realizada uma campanha de quinze dias num parque de estacionamento subterrâneo que permitiu a obtenção de concentrações suficientemente elevadas e a comparação dos resultados dos sensores com o método de referência em toda a gama de medição (0 a 12 mol.mol-1). Os valores de concentração obtidos pelos dois sensores demonstraram uma excelente correlação com o método de referência (r2≥0,998), obtendo-se resultados para a estimativa da incerteza expandida de campo inferiores aos obtidos para a incerteza laboratorial, cumprindo o objetivo de qualidade de dados definido para as medições indicativas de incerteza expandida máxima de 25%. Os resultados observados durante o trabalho realizado permitiram confirmar o bom desempenho que este tipo de sensor pode ter no âmbito de medições de poluição do ar com um caracter mais indicativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dadas as condições actuais do mercado de trabalho, o conhecimento empírico é cada vez mais um factor distintivo na carteira de habilitações de um engenheiro recém-graduado. Desta forma, a possibilidade de realização de um estágio em ambiente empresarial ganha toda uma nova dimensão no panorama académico, apresentando-se como uma excelente oportunidade de obtenção de experiência e conhecimento de causa num momento imediatamente anterior à saída da universidade e à entrada no mundo profissional. Neste âmbito, apresenta-se o presente relatório, referente ao estágio desenvolvido sob alçada da empresa Electrolinhas S. A. durante a construção do Parque Eólico do Pisco. Este estágio enquadra-se no 2º Ano do Mestrado em Engenharia Civil – ramo de Infraestruturas, do departamento de Engenharia Civil do Instituto Superior de Engenharia do Porto. Ao longo de 6 meses, de Fevereiro a Julho de 2015, foi possível acompanhar o desenrolar da obra de construção de um parque eólico, da perspectiva da fiscalização. Este estágio tem especial interesse dado tratar-se de uma obra de grande dimensão, com diversas particularidades ao nível do planeamento e da execução, descritas ao longo dos próximos capítulos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste documento, são investigados vários métodos usados na inteligência artificial, com o objetivo de obter previsões precisas da evolução dos mercados financeiros. O uso de ferramentas lineares como os modelos AR, MA, ARMA e GARCH têm muitas limitações, pois torna-se muito difícil adaptá-los às não linearidades dos fenómenos que ocorrem nos mercados. Pelas razões anteriormente referidas, os algoritmos como as redes neuronais dinâmicas (TDNN, NARX e ESN), mostram uma maior capacidade de adaptação a estas não linearidades, pois não fazem qualquer pressuposto sobre as distribuições de probabilidade que caracterizam estes mercados. O facto destas redes neuronais serem dinâmicas, faz com que estas exibam um desempenho superior em relação às redes neuronais estáticas, ou outros algoritmos que não possuem qualquer tipo de memória. Apesar das vantagens reveladas pelas redes neuronais, estas são um sistema do tipo black box, o que torna muito difícil extrair informação dos pesos da rede. Isto significa que estes algoritmos devem ser usados com precaução, pois podem tornar-se instáveis.