99 resultados para Implementing
Resumo:
O aumento da população Mundial, particularmente em Países emergentes como é o caso da China e da Índia, tem-se relevado um problema adicional no que confere às dificuldades associadas ao consumo mundial de energia, pois esta situação limita inequivocamente o acesso destes milhões de pessoas à energia eléctrica para os bens básicos de sobrevivência. Uma das muitas formas de se extinguir esta necessidade, começa a ser desenvolvida recorrendo ao uso de recursos renováveis como fontes de energia. Independentemente do local do mundo onde nos encontremos, essas fontes de energia são abundantes, inesgotáveis e gratuitas. O problema reside na forma como esses recursos renováveis são geridos em função das solicitações de carga que as instalações necessitam. Sistemas híbridos podem ser usados para produzir energia em qualquer parte do mundo. Historicamente este tipo de sistemas eram aplicados em locais isolados, mas nos dias que correm podem ser usados directamente conectados à rede, permitindo que se realize a venda de energia. Foi neste contexto que esta tese foi desenvolvida, com o objectivo de disponibilizar uma ferramenta informática capaz de calcular a rentabilidade de um sistema híbrido ligado à rede ou isolado. Contudo, a complexidade deste problema é muito elevada, pois existe uma extensa panóplia de características e distintos equipamentos que se pode adoptar. Assim, a aplicação informática desenvolvida teve de ser limitada e restringida aos dados disponíveis de forma a poder tornar-se genérica, mas ao mesmo tempo permitir ter uma aplicabilidade prática. O objectivo da ferramenta informática desenvolvida é apresentar de forma imediata os custos da implementação que um sistema híbrido pode acarretar, dependendo apenas de três variáveis distintas. A primeira variável terá de ter em consideração o local de instalação do sistema. Em segundo lugar é o tipo de ligação (isolado ou ligado à rede) e, por fim, o custo dos equipamentos (eólico, solar e restantes componentes) que serão introduzidos. Após a inserção destes dados a aplicação informática apresenta valores estimados de Payback e VAL.
Resumo:
Com o presente documento pretende-se abordar e identificar os diferentes factores que influenciam directamente a produção e execução de uma escavação subterrânea, com especial relevo sobre a influência exercida pela geotecnia do maciço intersectado. Inicialmente são focados os principais aspectos a ter em conta na caracterização geotécnica de um maciço, seguindo-se uma introdução a diferentes métodos de escavação actuais e metodologias de suporte de uma obra subterrânea, com particular realce para os utilizados em maciços brandos. Depois de tratados estes conceitos, é apresentada uma obra subterrânea em execução que foi acompanhada durante 4 meses para efeitos de desenvolvimento deste estudo. Assim, são abordados neste documento diferentes aspectos construtivos, no que diz respeito à mão-de-obra utilizada, metodologias e técnicas aplicadas, redes técnicas auxiliares instaladas, produções e rendimentos verificados. De seguida e de modo a atestar a importância da caracterização geotécnica ao longo da obra, foi feito um estudo do maciço intersectado, relativamente às descontinuidades que o intersectam, litologia, alteração, e resistência à compressão. Para este último parâmetro foram utilizadas técnicas distintas mas complementares, nomeadamente o ensaio de carga pontual (em laboratório), e o esclerómetro portátil (in situ). Por último, tendo em conta os parâmetros e características presentes e as implicações que uma obra do género acarreta, são propostas de modo sucinto, técnicas alternativas de escavação do maciço cuja viabilidade de implementação seja possível no contexto em questão.
Resumo:
Este trabalho visa apresentar um enquadramento da realidade económica e industrial do sector transformador de granitos ornamentais em Portugal e fazer uma análise do processo de serragem, com engenhos multi-lâminas e granalha de aço, na medida em que este é o método de seccionamento de blocos de granito mais utilizado pelas grandes indústrias do sector. Tendo em conta a importância económica desta operação produtiva na indústria em causa, foi definido como fito deste projecto a análise estatística dos custos de produção; a definição de fórmulas de cálculo que permitam prever o custo médio de serragem; e o estudo de soluções economicamente viáveis e ambientalmente sustentáveis para o problema das lamas resultantes do expurgo dos engenhos. Para a persecução deste projecto foi realizada uma recolha de dados implementando rotinas de controlo e registo dos mesmos, em quadros de produção normalizados e de fácil preenchimento, pelos operadores destes equipamentos. Esta recolha de dados permitiu isolar, quantificar e formular os factores de rentabilização do processo de serragem selecionando, dentro da amostra de estudo obtida, um conjunto de serragens com características similares e com valores próximos dos valores da média estatística. Apartir dos dados destas serragens foram geradas curvas de tendência polinomial com as quais se analisaram as variações provocadas no custo médio de serragem, pelas variações do factor em estudo. A formulação dos factores de rentabilização e os dados estatísticos obtidos permitiram depois o desenvolvimento de fórmulas de cálculo do custo médio de serragem que establecem o custo de produção diferenciado em função das espessuras com, ou sem, a incorporação dos factores de rentabilização. Como consequência do projecto realizado obteve-se um conjunto de conclusões util, para o sector industrial em causa, que evidencia a importancia da Ocupação dos engenhos e rentabilização de um espaço confinado, da Resistência oferecida à serragem pelos granitos, e da Diferença de altura entre os blocos de uma mesma carga, nos custos de transformação.
Resumo:
Neste trabalho pretende-se introduzir os conceitos associados à lógica difusa no controlo de sistemas, neste caso na área da robótica autónoma, onde é feito um enquadramento da utilização de controladores difusos na mesma. Foi desenvolvido de raiz um AGV (Autonomous Guided Vehicle) de modo a se implementar o controlador difuso, e testar o desempenho do mesmo. Uma vez que se pretende de futuro realizar melhorias e/ou evoluções optou-se por um sistema modular em que cada módulo é responsável por uma determinada tarefa. Neste trabalho existem três módulos que são responsáveis pelo controlo de velocidade, pela aquisição dos dados dos sensores e, por último, pelo controlador difuso do sistema. Após a implementação do controlador difuso, procedeu-se a testes para validar o sistema onde foram recolhidos e registados os dados provenientes dos sensores durante o funcionamento normal do robô. Este dados permitiram uma melhor análise do desempenho do robô. Verifica-se que a lógica difusa permite obter uma maior suavidade na transição de decisões, e que com o aumento do número de regras é possível tornar o sistema ainda mais suave. Deste modo, verifica-se que a lógica difusa é uma ferramenta útil e funcional para o controlo de aplicações. Como desvantagem surge a quantidade de dados associados à implementação, tais como, os universos de discurso, as funções de pertença e as regras. Ao se aumentar o número de regras de controlo do sistema existe também um aumento das funções de pertença consideradas para cada variável linguística; este facto leva a um aumento da memória necessária e da complexidade na implementação pela quantidade de dados que têm de ser tratados. A maior dificuldade no projecto de um controlador difuso encontra-se na definição das variáveis linguísticas através dos seus universos de discurso e das suas funções de pertença, pois a definição destes pode não ser a mais adequada ao contexto de controlo e torna-se necessário efectuar testes e, consequentemente, modificações à definição das funções de pertença para melhorar o desempenho do sistema. Todos os aspectos referidos são endereçados no desenvolvimento do AGV e os respectivos resultados são apresentados e analisados.
Resumo:
Esta tese pretende desenvolver o estudo de um padrão que utiliza um modelo de implementação fundamentado na natureza das operações que um sistema pretende executar. Estas operações são distinguidas pelo que realizam, portanto um sistema poderá ser dividido em duas grandes áreas: uma, de leitura de dados, e outra, de manipulação de dados. A maior parte dos sistemas atuais está a progredir, com o objetivo de conseguir suportar muitos utilizadores em simultâneo, e é neste aspeto que este padrão se diferencia porque vai permitir escalar, com muita facilidade e sem sobrecarga. Além disso, este estudo deverá facultar um conjunto de boas práticas e incidir sobre o facto de se pretender desenhar um sistema de raiz e não apenas em “migrar” de um sistema já existente. Ao estudar este padrão é essencial estudar e analisar a evolução da utilização futura dos sistemas, para determinar a utilidade e a aplicação crescente ou não, deste padrão. Interessa também saber, quem implementa atualmente este padrão, em que tipo de produtos, e enaltecer o seu sucesso de implementação, estimulando o desenvolvimento da sua utilização. Finalmente, demonstra-se a aplicabilidade e validade do padrão proposto, através de uma implementação modelo, com a ajuda de uma framework de forma a determinar quais as ferramentas existentes que possam ser úteis e contribuir para a implementação deste padrão. O objetivo final será demonstrar os principais componentes do sistema, como poderá prosseguir a sua evolução e como poderá ser melhorada e simplificada a comunicação entre os seus componentes, para uma utilização mais fácil, frequente e de interesse comum para todos: utilizadores e administradores.
Resumo:
Tecnologias da Web Semântica como RDF, OWL e SPARQL sofreram nos últimos anos um forte crescimento e aceitação. Projectos como a DBPedia e Open Street Map começam a evidenciar o verdadeiro potencial da Linked Open Data. No entanto os motores de pesquisa semânticos ainda estão atrasados neste crescendo de tecnologias semânticas. As soluções disponíveis baseiam-se mais em recursos de processamento de linguagem natural. Ferramentas poderosas da Web Semântica como ontologias, motores de inferência e linguagens de pesquisa semântica não são ainda comuns. Adicionalmente a esta realidade, existem certas dificuldades na implementação de um Motor de Pesquisa Semântico. Conforme demonstrado nesta dissertação, é necessária uma arquitectura federada de forma a aproveitar todo o potencial da Linked Open Data. No entanto um sistema federado nesse ambiente apresenta problemas de performance que devem ser resolvidos através de cooperação entre fontes de dados. O standard actual de linguagem de pesquisa na Web Semântica, o SPARQL, não oferece um mecanismo para cooperação entre fontes de dados. Esta dissertação propõe uma arquitectura federada que contém mecanismos que permitem cooperação entre fontes de dados. Aborda o problema da performance propondo um índice gerido de forma centralizada assim como mapeamentos entre os modelos de dados de cada fonte de dados. A arquitectura proposta é modular, permitindo um crescimento de repositórios e funcionalidades simples e de forma descentralizada, à semelhança da Linked Open Data e da própria World Wide Web. Esta arquitectura trabalha com pesquisas por termos em linguagem natural e também com inquéritos formais em linguagem SPARQL. No entanto os repositórios considerados contêm apenas dados em formato RDF. Esta dissertação baseia-se em múltiplas ontologias partilhadas e interligadas.
Resumo:
No actual contexto macroeconómico, a melhoria dos processos e o aproveitamento de todas as sinergias, são factores que se tornaram ainda mais importantes e nalguns casos, condição sine qua non para a sobrevivência das próprias empresas. Cada vez mais as empresas são obrigadas a produzir mais com menos recursos, com a qualidade desejada pelos clientes e a preços competitivos. A qualidade do produto final não deve ser afectada com a desculpa da implementação de uma política da redução de custos. Pelo contrário, deve existir a preocupação de eliminar da cadeia de valor tudo o que não contribui com valor acrescentado, melhorando nalguns casos a própria qualidade do produto final. A realização deste projecto tem como objectivo, analisar e implementar, através de ferramentas relacionadas com a metodologia Lean, melhorias na produção de aplicadores de cravação numa empresa multinacional ligada ao ramo automóvel. Pretende-se um aumento da taxa de produção diária em 50%, obtida essencialmente através do balanceamento dos recursos humanos e no desenvolvimento de um sistema kanban incorporado no sector produtivo. A parte inicial do trabalho incidiu no estudo e análise do produto e respectivo processo produtivo. Posteriormente e por várias fases efectuaram-se análises aos tempos de fabrico e ao sequenciamento das operações, com vista ao conhecimento de todo o processo de montagem de modo a identificar os aspectos de melhoria. Após o registo dos pontos a eliminar e/ou a melhorar, procedeu-se a uma análise criteriosa dos dados recolhidos, efectuando-se o balanceamento dos recursos de modo a tornar eficaz a implementação do sistema kanban. Este sistema é a base da melhoria proposta para este tema de dissertação. Após implementação do sistema kanban, foi avaliado o seu desempenho e foram registadas melhorias na produção diária dos aplicadores bem como no lead time despendido no processamento dos mesmos.
Resumo:
Este trabalho é uma análise dos efeitos da implementação das últimas recomendações do Basel Committee on Banking Supervision (BCBS) também conhecidas como o Basel III de 2010 que deverão ser faseadamente implementadas desde 1 de Janeiro de 2013 até 1 de Janeiro de 2019, no capital próprio dos bancos Portugueses. Neste trabalho assume-se que os ativos pesados pelo risco de 2012 mantêm-se constantes e o capital terá de ser aumentado segundo as recomendações ano após ano até ao fim de 2018. Com esta análise, pretende-se entender o nível de robustez do capital próprio dos bancos Portugueses e se os mesmos têm capital e reservas suficientes para satisfazer as recomendações de capital mínimo sugeridas pelo BCBS ou caso contrário, se necessitarão de novas injeções de capital ou terão de reduzir a sua atividade económica. O Basel III ainda não foi implementado em Portugal, pois a União Europeia está no processo de desenvolvimento e implementação do Credit Requirement Directive IV (CRD IV) que é uma recomendação que todos os bancos centrais dos países da zona Euro deverão impor aos respetivos bancos. Esta diretiva da União Europeia é baseada totalmente nas recomendações do Basel III e deverá ser implementada em 2014 ou nos anos seguintes. Até agora, os bancos Portugueses seguem um sistema com base no aviso 6/2010 do Banco de Portugal que recomenda o cálculo dos rácios core tier 1, tier 1 e tier 2 usando o método notações internas (IRB) de avaliação da exposição do banco aos riscos de crédito, operacional, etc. e onde os ativos ponderados pelo risco são calculados como 12,5 vezes o valor dos requisitos totais de fundos calculados pelo banco. Este método é baseado nas recomendações do Basel II que serão substituídas pelo Basel III. Dado que um dos principais motivos para a crise económica e financeira que assolou o mundo em 2007 foi a acumulação de alavancagem excessiva e gradual erosão da qualidade da base do capital próprio dos bancos, é importante analisar a posição dos bancos Portugueses, que embora não sejam muito grandes a nível global, controlam a economia do país. Espera-se que com a implementação das recomendações do Basel III não haja no futuro uma repetição dos choques sistémicos de 2007. Os resultados deste estudo usando o método padrão recomendado pelo BCBS mostram que de catorze bancos Portugueses incluídos neste estudo, apenas seis (BES, Montepio, Finantia, BIG, Invest e BIC) conseguem enquadrar nas recomendações mínimas do Basel III até 1-1- 2019 e alguns outros estão marginalmente abaixo dos rácios mínimos (CGD, Itaú e Crédito Agrícola).
Resumo:
Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Gestão das Organizações, Ramo de Gestão de Empresas. Orientada por Prof. Doutor Manuel Salvador Gomes de Araújo
Resumo:
A Distribuição Individual Diária em Dose Unitária deve assegurar o maior rigor no Processo de Distribuição de Medicamentos, o que nem sempre se verificou no Hospital Pedro Hispano, dado que as Doses Unitárias devolvidas pelos Serviços de Internamento, nem sempre seguiam os Parâmetros de Qualidade. Assim, desenvolveu-se um estudo quasi-experimental, longitudinal, prospetivo e analítico, entre 1 de Março a 30 de Junho de 2012, no qual se analisaram as Doses Unitárias, devolvidas pelos Serviços de Internamento da Unidade Local de Saúde de Matosinhos a funcionam com Distribuição Individual Diária em Dose Unitária, tendo-se recolhido as não conformes relativamente aos Parâmetros de Qualidade instituídos. Na 1.ª fase do estudo (Recolha de amostras), foram contabilizadas 337 amostras, correspondentes a uma perda de 471 €. Na 2.ª fase do estudo (Implementação de acções correctivas às amostras previamente recolhidas), foram rejeitadas definitivamente 129 amostras, correspondentes a uma perda de 198 €. Na 4.ª fase do estudo (Segunda recolha de amostras), foram contabilizadas 228 amostras, correspondentes a uma perda de 199 €. A 3.ª fase do estudo incluiu a divulgação dos resultados às enfermeiras chefes dos serviços envolvidos no estudo e a 5.ª fase a comparação dos resultados obtidos na 1.ª, 2.ª e 4.ª fase do estudo. As amostras foram recolhidas em 16 serviços de internamento, sendo os valores monetários mais relevantes associados ao Espessante para alimentos líquidos e ao Imipeno + Cilastatina. A prática observada e sujeita a estudo aumenta os riscos associados ao consumo do medicamento e os custos relativos ao Processo, sendo de eliminar. A sua monitorização deve constituir uma rotina, uma vez que houve mudança de comportamentos. A redução/eliminação desta prática não conforme conduz à integração de novas tarefas com valor acrescentado, com aumento da fiabilidade do Processo.
Resumo:
In the business world, there are issues such as globalisation, environmental awareness, and the rising expectations of public opinion which have a specific role in what is required from companies as providers of information to the market. This chapter refers to the current state of corporate reporting (financial reporting and sustainability reporting) and demonstrates the need for evolution to a more integrated method of reporting which meets the stakeholders’ needs. This research offers a reflection on how this development can be achieved, which notes the ongoing efforts by international organisations in implementing the diffusion and adoption, as well as looking at the characteristics which are needed for this type of reporting. It also makes the link between an actual case of a company that is one of the world references in sustainable development and integrated reporting. Whether or not the integrated reporting is the natural evolution of the history of financial and sustainability reporting, it still cannot yet claim to be infallible. However, it may definitely be concluded that a new approach is necessary to meet the needs which are continuously developing for a network of stakeholders.
Resumo:
P-NET is a multi-master fieldbus standard based on a virtual token passing scheme. In P-NET each master is allowed to transmit only one message per token visit. In the worst-case, the communication response time can be derived considering that, in each token cycle, all stations use the token to transmit a message. In this paper, we define a more sophisticated P-NET model, which considers the actual token utilisation. We then analyse the possibility of implementing a local priority-based scheduling policy to improve the real-time behaviour of P-NET.
Resumo:
The marriage of emerging information technologies with control technologies is a major driving force that, in the context of the factory-floor, is creating an enormous eagerness for extending the capabilities of currently available fieldbus networks to cover functionalities not considered up to a recent past. Providing wireless capabilities to such type of communication networks is a big share of that effort. The RFieldbus European project is just one example, where PROFIBUS was provided with suitable extensions for implementing hybrid wired/wireless communication systems. In RFieldbus, interoperability between wired and wireless components is achieved by the use specific intermediate networking systems operating as repeaters, thus creating a single logical ring (SLR) network. The main advantage of the SLR approach is that the effort for protocol extensions is not significant. However, a multiple logical ring (MLR) approach provides traffic and error isolation between different network segments. This concept was introduced in, where an approach for a bridge-based architecture was briefly outlined. This paper will focus on the details of the inter-Domain Protocol (IDP), which is responsible for handling transactions between different network domains (wired or wireless) running the PROFIBUS protocol.
Resumo:
In this paper we address the real-time capabilities of P-NET, which is a multi-master fieldbus standard based on a virtual token passing scheme. We show how P-NET’s medium access control (MAC) protocol is able to guarantee a bounded access time to message requests. We then propose a model for implementing fixed prioritybased dispatching mechanisms at each master’s application level. In this way, we diminish the impact of the first-come-first-served (FCFS) policy that P-NET uses at the data link layer. The proposed model rises several issues well known within the real-time systems community: message release jitter; pre-run-time schedulability analysis in non pre-emptive contexts; non-independence of tasks at the application level. We identify these issues in the proposed model and show how results available for priority-based task dispatching can be adapted to encompass priority-based message dispatching in P-NET networks.
Resumo:
In this paper we discuss challenges and design principles of an implementation of slot-based tasksplitting algorithms into the Linux 2.6.34 version. We show that this kernel version is provided with the required features for implementing such scheduling algorithms. We show that the real behavior of the scheduling algorithm is very close to the theoretical. We run and discuss experiments on 4-core and 24-core machines.