366 resultados para Interconnection
Resumo:
Com a alteração da legislação energética em Portugal, nomeadamente a implementação da legislação de Micro e Minigeração, a produção distribuída cresceu de forma exponencial na rede elétrica nacional, diminuindo por um lado as perdas no transporte e distribuição, e por outro aumentando a complexidade na gestão do trânsito de potência ao Distribuidor. No entanto a motivação desta dissertação prende-se com o facto de que as centrais de produção distribuída, em particular as de tecnologia fotovoltaica, pela sua dimensão, serem instaladas nos pontos de consumo, em paralelo com a instalação elétrica de utilização do cliente e como tal, têm sido verificadas diversas anomalias no funcionamento e exploração das mesmas, por influência da má qualidade de energia resultante das más condições de funcionamento e exploração em que se encontram as instalações de consumo. A presente dissertação pretende apresentar uma descrição das anomalias mais frequentes verificadas nas centrais fotovoltaicas de minigeração com origem na qualidade da energia que transita das instalações elétricas de consumo ligadas ao mesmo ponto de interligação com a rede elétrica nacional. Como base de fundamento, foram demonstradas através de três casos práticos reais, algumas das mais frequentes e prejudiciais anomalias descritas na presente dissertação. Foram escolhidos 3 casos reais com diferentes tipos de instalação de consumo sendo que um deles não apresenta qualquer anomalia de forma a comprovar o bom funcionamento em condições normais de ambas as instalações. Foram encontradas e demonstradas várias soluções paras os diferentes tipos de anomalias, no entanto esta dissertação vai permitir não só a resolução deste tipo de anomalias em centrais fotovoltaicas em exploração e já com prejuízos avultados mas também introduzir em futuras instalações a análise da qualidade da energia nas instalações de consumo em fase preliminar de estudo de implementação de centrais fotovoltaicas de minigeração e de autoconsumo, precavendo futuros problemas de rentabilidade técnico-económica. Este estudo, irá certamente servir de motor de impulsão para a preocupação com a Qualidade da Energia essencialmente dentro das instalações elétricas de consumo sensibilizando os seus gestores energéticos. Poderá ainda impulsionar a reformulação do Regulamento de Qualidade de Serviço para exigências ainda mais apertadas de forma a incorporar algumas das anomalias aqui descritas, sendo por isso um elemento de alerta para todos os “Players” do Sistema Elétrico Nacional tendo como limite a melhoria continua da Segurança e da Qualidade da energia na rede elétrica beneficiando da sensibilização de todos os intervenientes.
Resumo:
Num contexto global de incerteza, as cadeias de abastecimento mais ágeis e os clientes com mais exigências manifestam uma constante preocupação com a melhoria contínua da eficiência das operações logísticas. O presente projeto foi desenvolvido na empresa Sonae Modelo Continente Hipermercados, S.A, uma das duas principais empresas do retalho da grande distribuição alimentar em Portugal. Sendo a logística um fator chave de sucesso, uma das atividades críticas de uma empresa, é identificada a oportunidade de melhoria operacional do processo de negócio, a partir das reclamações dos clientes internos. O tratamento destas reclamações, incidências, é de grande complexidade e responsabilidade para a área do Logistics Customer Service. O projeto desenvolvido, a ‘Reengenharia do processo de reclamações das Lojas’, surgiu da necessidade de criar um modelo e processo de negócio de melhoria contínua, que solucione falhas operacionais com implicação na Logística, Supply Chain e em outras áreas da empresa. A procura dessa melhoria é o objetivo deste trabalho. Pretende-se, com a proposta aqui apresentada, a interligação e automatização da cadeia abastecimento, para superar as ocorrências operacionais, elevar a qualidade do serviço, aumentar a capacidade do processo e incorporar uma monitorização das atividades de input (Lojas) e output (Entrepostos), para futura rastreabilidade das operações, através da integração da cadeia de abastecimento, para a satisfação do cliente interno. Para a elaboração do novo modelo de processo foi seguida a orientação da reengenharia de processos de negócio, nas suas linhas orientadoras: identificação do modelo de processo atual e das suas necessidades; definição dos objetivos norteadores do projeto a apresentar; redesenhar novo modelo de processo de negócio, de modo a dar resposta às necessidades detetadas nos clientes internos.
Resumo:
Standarização de um posto de trabalho não é mais que definir o melhor método de trabalho que vai ser seguido por todos os operadores que trabalham no mesmo. Uma vez definido esse método, é importante para uma empresa ter noção da produtividade que podem alcançar, dado que pode ser retirado a partir deste método, e é no seguimento disto que surge o estudo dos métodos e tempos, mais concretamente o estudo dos tempos por cronometragem. A aplicação deste estudo foi despoletada pela necessidade do IKEA Industry de Paços de Ferreira, em dar o próximo passo na standarização dos seus postos de trabalho, área a área, e da necessidade de terem uma pessoa em cada área que analisa-se o trabalho que estava a ser feito e calcula-se o tempo de cada rotina. Neste documento, é realizada uma interligação entre os conceitos teóricos que o método exige, como todo o conjunto de fórmulas, restrições, análises e ponderações, com o contexto laboral onde o mesmo foi aplicado e a estratégia desenvolvida pelo IKEA na realização do estudo. O estudo dos métodos e tempos por cronometragem, de todos os métodos existentes, pode ser considerado o mais completo e complexo, uma vez que é mais que observar, registar e retirar uma média ponderada das observações. Este método baseia-se num modelo matemático, que interliga uma série de conceitos e que tem sempre o operador em consideração, seja na avaliação e análise das tarefas que requerem mais esforço dos mesmos, físico ou psicológico, seja em termos de tempos de pausas pessoais que a lei obriga a que as empresas deem. Este detalhe, neste método, é de grande importância, uma vez que a standarização é sempre vista pelos operadores como uma punição. As desvantagens deste método estão no grau de conhecimento e capacidade de observação exigidas ao analista para o executar. Melhor dizendo, um analista que vá executar este trabalho necessita observar muito bem a rotina de trabalho e conhecer onde começa, acaba e tudo o que a ela não pertence, antes de começar a registar seja que tempos forem. Para além disso, é exigido ao analista que perceba o ritmo de trabalho dos operadores através da observação dos mesmos, de modo a que ninguém seja prejudicado. E por fim, é necessária uma grande disponibilidade da parte do analista para retirar o máximo de observações possíveis. Com o intuito de facilitar esta análise, o IKEA Industry criou um ficheiro que compila toda a informação relacionada com o método, e uma explicação de todos os parâmetros que o analista necessita ter em atenção. Esta folha de trabalho foi validada à luz do método, como é possível verificar no decorrer do documento. Um detalhe importante a referir, é que por muito fidedigno que seja este método, tal como qualquer método de standarização, a mínima alteração da rotina de trabalho invalida de imediato o tempo total da rotina, tornando necessário realizar o estudo novamente. Uma vantagem do documento criado pelo IKEA, está na rápida adaptação a estas alterações, uma vez que, caso seja acrescentado ou removido um elemento à rotina, basta alterar o documento, observar e cronometrar os operadores a executar esse novo elemento, e quase automaticamente é definido um novo tempo total padronizado na rotina. Este documento foi criado para fins académicos e de conclusão de um grau académico, mas o estudo quando aplicado na empresa deu origem a contratações, o que só por si mostra as vantagens e impacto que o mesmo pode ter em contexto laboral. Em termos de produtividade, uma vez que a sua aplicação não foi executada a tempo de ser estudada neste documento, não foi possível avaliar a mesma.
Resumo:
As technology advances not only do new standards and programming styles appear but also some of the previously established ones gain relevance. In a new Internet paradigm where interconnection between small devices is key to the development of new businesses and scientific advancement there is the need to find simple solutions that anyone can implement in order to allow ideas to become more than that, ideas. Open-source software is still alive and well, especially in the area of the Internet of Things. This opens windows for many low capital entrepreneurs to experiment with their ideas and actually develop prototypes, which can help identify problems with a project or shine light on possible new features and interactions. As programming becomes more and more popular between people of fields not related to software there is the need for guidance in developing something other than basic algorithms, which is where this thesis comes in: A comprehensive document explaining the challenges and available choices of developing a sensor data and message delivery system, which scales well and implements the delivery of critical messages. Modularity and extensibility were also given much importance, making this an affordable tool for anyone that wants to build a sensor network of the kind.
Resumo:
The present article is based on the report for the Doctoral Conference of the PhD programme in Technology Assessment, held at FCT-UNL Campus, Monte de Caparica, July 9th, 2012. The PhD thesis has the supervision of Prof. Cristina Sousa (ISCTE-IUL), and co-supervision of Prof. José Cardoso e Cunha (FCT-UNL).
Resumo:
Cloud computing has been one of the most important topics in Information Technology which aims to assure scalable and reliable on-demand services over the Internet. The expansion of the application scope of cloud services would require cooperation between clouds from different providers that have heterogeneous functionalities. This collaboration between different cloud vendors can provide better Quality of Services (QoS) at the lower price. However, current cloud systems have been developed without concerns of seamless cloud interconnection, and actually they do not support intercloud interoperability to enable collaboration between cloud service providers. Hence, the PhD work is motivated to address interoperability issue between cloud providers as a challenging research objective. This thesis proposes a new framework which supports inter-cloud interoperability in a heterogeneous computing resource cloud environment with the goal of dispatching the workload to the most effective clouds available at runtime. Analysing different methodologies that have been applied to resolve various problem scenarios related to interoperability lead us to exploit Model Driven Architecture (MDA) and Service Oriented Architecture (SOA) methods as appropriate approaches for our inter-cloud framework. Moreover, since distributing the operations in a cloud-based environment is a nondeterministic polynomial time (NP-complete) problem, a Genetic Algorithm (GA) based job scheduler proposed as a part of interoperability framework, offering workload migration with the best performance at the least cost. A new Agent Based Simulation (ABS) approach is proposed to model the inter-cloud environment with three types of agents: Cloud Subscriber agent, Cloud Provider agent, and Job agent. The ABS model is proposed to evaluate the proposed framework.
Resumo:
Transport is an essential sector in modern societies. It connects economic sectors and industries. Next to its contribution to economic development and social interconnection, it also causes adverse impacts on the environment and results in health hazards. Transport is a major source of ground air pollution, especially in urban areas, and therefore contributing to the health problems, such as cardiovascular and respiratory diseases, cancer, and physical injuries. This thesis presents the results of a health risk assessment that quantifies the mortality and the diseases associated with particulate matter pollution resulting from urban road transport in Hai Phong City, Vietnam. The focus is on the integration of modelling and GIS approaches in the exposure analysis to increase the accuracy of the assessment and to produce timely and consistent assessment results. The modelling was done to estimate traffic conditions and concentrations of particulate matters based on geo-references data. A simplified health risk assessment was also done for Ha Noi based on monitoring data that allows a comparison of the results between the two cases. The results of the case studies show that health risk assessment based on modelling data can provide a much more detail results and allows assessing health impacts of different mobility development options at micro level. The use of modeling and GIS as a common platform for the integration of different assessments (environmental, health, socio-economic, etc.) provides various strengths, especially in capitalising on the available data stored in different units and forms and allows handling large amount of data. The use of models and GIS in a health risk assessment, from a decision making point of view, can reduce the processing/waiting time while providing a view at different scales: from micro scale (sections of a city) to a macro scale. It also helps visualising the links between air quality and health outcomes which is useful discussing different development options. However, a number of improvements can be made to further advance the integration. An improved integration programme of the data will facilitate the application of integrated models in policy-making. Data on mobility survey, environmental monitoring and measuring must be standardised and legalised. Various traffic models, together with emission and dispersion models, should be tested and more attention should be given to their uncertainty and sensitivity
Resumo:
Os modelos atuais de empregabilidade, abrangentes e complexos, incluem não apenas o conjunto de competências técnicas e transversais necessárias à integração no mercado de trabalho, mas consideram também uma componente subjetiva que integra as crenças e atitudes individuais. Apresentam-se os resultados preliminares de um estudo centrado nas perceções de competências e preparação para o mercado de trabalho, realizado com 214 alunos, finalistas de mestrado. Os resultados obtidos apontam para uma elevada correlação entre competências práticas, competências de empregabilidade, preparação e expectativas de sucesso na transição para o trabalho. Realça-se ainda a importância da integração de uma componente prática nos currículos educativos.
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
Dissertação de mestrado integrado em Engenharia de Telecomunicações e Informática
Resumo:
The modern computer systems that are in use nowadays are mostly processor-dominant, which means that their memory is treated as a slave element that has one major task – to serve execution units data requirements. This organization is based on the classical Von Neumann's computer model, proposed seven decades ago in the 1950ties. This model suffers from a substantial processor-memory bottleneck, because of the huge disparity between the processor and memory working speeds. In order to solve this problem, in this paper we propose a novel architecture and organization of processors and computers that attempts to provide stronger match between the processing and memory elements in the system. The proposed model utilizes a memory-centric architecture, wherein the execution hardware is added to the memory code blocks, allowing them to perform instructions scheduling and execution, management of data requests and responses, and direct communication with the data memory blocks without using registers. This organization allows concurrent execution of all threads, processes or program segments that fit in the memory at a given time. Therefore, in this paper we describe several possibilities for organizing the proposed memory-centric system with multiple data and logicmemory merged blocks, by utilizing a high-speed interconnection switching network.
Resumo:
Aquest projecte es basa en l'estudi de l'oferiment de qualitat de servei en xarxes wireless i satel·litals. Per això l'estudi de les tècniques de cross-layer i del IEEE 802.11e ha sigut el punt clau per al desenvolupament teòric d’aquest estudi. Usant el simulador de xarxes network simulator, a la part de simulacions es plantegen tres situacions: l'estudi de la xarxa satel·lital, l'estudi del mètode d'accés HCCA i la interconnexió de la xarxa satel·lital amb la wireless. Encara que aquest últim punt, incomplet en aquest projecte, ha de ser la continuació per a futures investigacions.
Resumo:
El uso intensivo y prolongado de computadores de altas prestaciones para ejecutar aplicaciones computacionalmente intensivas, sumado al elevado número de elementos que los componen, incrementan drásticamente la probabilidad de ocurrencia de fallos durante su funcionamiento. El objetivo del trabajo es resolver el problema de tolerancia a fallos para redes de interconexión de altas prestaciones, partiendo del diseño de políticas de encaminamiento tolerantes a fallos. Buscamos resolver una determinada cantidad de fallos de enlaces y nodos, considerando sus factores de impacto y probabilidad de aparición. Para ello aprovechamos la redundancia de caminos de comunicación existentes, partiendo desde enfoques de encaminamiento adaptativos capaces de cumplir con las cuatro fases de la tolerancia a fallos: detección del error, contención del daño, recuperación del error, y tratamiento del fallo y continuidad del servicio. La experimentación muestra una degradación de prestaciones menor al 5%. En el futuro, se tratará la pérdida de información en tránsito.
Resumo:
Las redes de interconexión juegan un papel importante en el rendimiento de los sistemas de altas prestaciones. Actualmente la gestión del encaminamiento de los mensajes es un factor determinante para mantener las prestaciones de la red. Nuestra propuesta es trabajar sobre un algoritmo de encaminamiento adaptativo, que distribuye el encaminamiento de los mensajes para evitar los problemas de congestión en las redes de interconexión, que aparecen por el gran volumen de comunicaciones de aplicaciones científicas ó comerciales. El objetivo es ajustar el algoritmo a una topología muy utilizada en los sistemas actuales como lo es el fat‐tree, e implementarlo en una tecnología Infiniband. En la experimentación realizada comparamos el método de control de congestión de la arquitectura Infiniband, con nuestro algoritmo. Los resultados obtenidos muestran que mejoramos los niveles de latencia por encima de un 50% y de throughput entre un 38% y un 81%.
Resumo:
Aquest estudi consisteix en l’augment de la resolució en la reconstrucció de la temperatura de l’aigua i l’aire del llac Baikal durant els últims 60.000 anys mitjançant l’ús de les proxies de reconstrucció de la temperatura TEX86 i MAAT, i la d’aportació de matèria orgànica d’origen terrestre, el BIT. L’objectiu general d’aquesta investigació és incrementar la resolució temporal en el mostreig del testimoni CON-01-603-02 per tal de millorar el registre de dades obtingudes i d’aquesta manera poder contrastar la hipòtesi de la interconnexió climàtica global, així com identificar esdeveniments climàtics sobtats, tals com els Heinrich events i els esdeveniments D-O. Un cop obtinguts els resultats s’ha realitzat l’anàlisi de la qualitat i fiabilitat de les dades a les resolucions de 5, 10 i 20 Kanys, i es conclou que existeixen diferències globals estadísticament significatives amb els resultats realitzats per Escala et al., (r.n.p [resultats no publicats]), la resolució dels quals es volia augmentar. S’han tractat d’anular aquestes diferències restant o bé sumant la diferència mitjana obtinguda entre les dues mostres en cada un dels intervals de 5 Kanys en què s’han donat aquestes. Els resultats integrats d’Escala et al.,(r.n.p) i els d’aquest estudi, aporten dades que recolzen l’hipòtesi de la interconnexió climàtica global, ja que al comparar-los amb els registres climàtics de Grenlàndia (GRIP2) i l’Antàrtica (Vostok) mostren respostes similars tant per les forces de Milankovitch com per les de subMilankovitch.