34 resultados para require solutions

em Instituto Politécnico do Porto, Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Power system planning, control and operation require an adequate use of existing resources as to increase system efficiency. The use of optimal solutions in power systems allows huge savings stressing the need of adequate optimization and control methods. These must be able to solve the envisaged optimization problems in time scales compatible with operational requirements. Power systems are complex, uncertain and changing environments that make the use of traditional optimization methodologies impracticable in most real situations. Computational intelligence methods present good characteristics to address this kind of problems and have already proved to be efficient for very diverse power system optimization problems. Evolutionary computation, fuzzy systems, swarm intelligence, artificial immune systems, neural networks, and hybrid approaches are presently seen as the most adequate methodologies to address several planning, control and operation problems in power systems. Future power systems, with intensive use of distributed generation and electricity market liberalization increase power systems complexity and bring huge challenges to the forefront of the power industry. Decentralized intelligence and decision making requires more effective optimization and control techniques techniques so that the involved players can make the most adequate use of existing resources in the new context. The application of computational intelligence methods to deal with several problems of future power systems is presented in this chapter. Four different applications are presented to illustrate the promises of computational intelligence, and illustrate their potentials.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pretendeu-se, com o presente trabalho, efectuar um estudo sobre a possibilidade de aumentar a produção de paraxileno na unidade processual existente na refinaria da Galp no Porto. Foram estudados o conjunto de colunas T-0306 e T-0307 e a coluna T-0303, recorrendo ao uso do AspenPlus, na realização da simulação do processo nas condições actuais e para a realização da análise de sensibilidade, que permitiu verificar se o equipamento existente possui capacidade para satisfazer as necessidades exigidas pelo processo quando se pretende aumentar a produção. Com a simulação do processo, foi verificado que este já se encontra a laborar em condições óptimas. Na realização da análise de sensibilidade foram variados para o conjunto T-0306 e T- 0307, o caudal de alimentação entre 62780 e 95000 kg/h, o caudal de destilado da T-0306 entre 15833 e 23911 kg/h e o caudal de destilado da T-0307 entre 139 e os 235 kg/h. No caso da T-0303, foi variado o caudal de refinado entre 201240 e 304600 kg/h, o caudal de destilado e o caudal da corrente lateral, variam entre 77290 a 116930 kg/h. Pretendeu-se obter soluções que conseguissem cumprir as especificações relativas aos produtos obtidos, nomeadamente paraxileno com uma pureza de 99,6% e uma recuperação de 99%, tolueno com uma pureza de 97% e uma recuperação de 90% (T-0306 e T-0307). No caso da T- 0303, obter paraxileno com uma pureza de 2,23% e paradietilbenzeno com uma pureza de 99,0% e ambos com uma recuperação de 99%. Para as simulações que cumpriram as especificações anteriores, verificou-se se a energia transferida em aeroarrefecedores, fornalhas e permutadores excedem em 25% o seu valor de projecto. Em caso afirmativo isso significou o acréscimo de uma peça de equipamento idêntica à existente. A análise de sensibilidade permitiu concluir a separação é possível para os caudais actuais de extracto e refinado e para um aumento destes de 32, 40 e 50%. Foi ainda possível concluir que para os caudais actuais é necessária a colocação de novos aeroarrefecedores para as colunas T-0306 e T-0303 e de uma nova fornalha para a coluna T-0303. Para um aumento dos caudais de 32% para além das alterações referidas anteriormente é necessária a colocação de um novo aeroarrefecedor na coluna T-0307 e de uma nova fornalha da coluna T-0306. Se aumentarmos os caudais em 40% será também necessário o acréscimo de permutadores para a coluna T-0307. Para o aumento de 50%, os calores de permuta são excedidos em bastante mais do que 25%, em todos os aeroarrefecedores, permutadores e fornalhas. Uma vez que todas as colunas se encontram a funcionar acima da sua capacidade, concluiu-se que em ambos os casos seria necessária a montagem de uma segunda linha em paralelo e igual à existente. Implicando com esta alteração um investimento total de 10.439.574,36€.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os serviços baseados em localização vieram dar um novo alento à criatividade dos programadores de aplicações móveis. A vulgarização de dispositivos com capacidades de localização integradas deu origem ao desenvolvimento de aplicações que gerem e apresentam informação baseada na posição do utilizador. Desde então, o mercado móvel tem assistido ao aparecimento de novas categorias de aplicações que tiram proveito desta capacidade. Entre elas, destaca-se a monitorização remota de dispositivos, que tem vindo a assumir uma importância crescente, tanto no sector particular como no sector empresarial. Esta dissertação começa por apresentar o estado da arte sobre os diferentes sistemas de posicionamento, categorizados pela sua eficácia em ambientes internos ou externos, assim como diferentes protocolos de comunicação em tempo quase-real. É também feita uma análise ao estado actual do mercado móvel. Actualmente o mercado possui diferentes plataformas móveis com características únicas que as fazem rivalizar entre si, com vista a expandirem a sua quota de mercado. É por isso elaborado um breve estudo sobre os sistemas operativos móveis mais relevantes da actualidade. É igualmente feita uma abordagem mais profunda à arquitectura da plataforma móvel da Apple - o iOS – que serviu de base ao desenvolvimento de uma solução optimizada para localização e monitorização de dispositivos móveis. A monitorização implica uma utilização intensiva de recursos energéticos e de largura de banda que os dispositivos móveis da actualidade não estão aptos a suportar. Dado o grande consumo energético do GPS face à precária autonomia destes dispositivos, é apresentado um estudo em que se expõem soluções que permitem gerir de forma optimizada a utilização do GPS. O elevado custo dos planos de dados facultados pelas operadoras móveis é também considerado, pelo que são exploradas soluções que visam minimizar a utilização de largura de banda. Deste trabalho, nasce a aplicação EyeGotcha, que para além de permitir localizar outros utilizadores de dispositivos móveis de forma optimizada, permite também monitorizar as suas acções baseando-se num conjunto de regras pré-definidas. Estas acções são reportadas às entidades monitoras, de modo automatizado e sob a forma de alertas. Visionando-se a comercialização da aplicação, é portanto apresentado um modelo de negócio que permite obter receitas capazes de cobrirem os custos de manutenção de serviços, aos quais o funcionamento da aplicação móvel está subjugado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os laboratórios de experimentação remota estão normalmente associados a tecnologias ou soluções proprietárias, as quais restringem a sua utilização a determinadas plataformas e obrigam ao uso de software específico no lado do cliente. O ISEP possui um laboratório de experimentação remota, baseado em instrumentação virtual, usado no apoio ao ensino da electrónica e construído sobre uma plataforma NIELVIS da National Instruments. O software de controlo da plataforma recorre à linguagem gráfica de programação LabVIEW. Esta é uma ferramenta desenvolvida pela National Instruments que facilita o desenvolvimento de aplicações de sistemas de experimentação remota, mas que possui várias limitações, nomeadamente a necessidade de instalação do lado do cliente de um plug-in, cuja disponibilidade se encontra limitada a determinadas versões de sistemas operativos e de Web Browsers. A experiência anterior demonstrou que estas questões limitam o número de clientes com possibilidade de acesso ao laboratório remoto, para além de, em alguns casos, se ter verificado não ser transparente a sua instalação e utilização. Neste contexto, o trabalho de investigação consistiu no desenvolvimento de uma solução que permite a geração de interfaces que possibilitam o controlo remoto do sistema implementado, e que, ao mesmo tempo, são independentes da plataforma usada pelo cliente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The treatment of electric and electronic waste (WEEE) is a problem which receives ever more attention. An inadequate treatment results in harmful products ending up in the environment. This project intends to investigate the possibilities of an alternative route for recycling of metals from printed circuit boards (PCBs) obtained from rejected computers. The process is based on aqueous solutions composed of an etchant, either 0.2 M CuCl2.2H2O or 0.2 M FeCl3.6H2O, and a quaternary ammonium salt (quat) such as choline chloride or chlormequat. These solutions are reminiscent of deep eutectic solvents (DES) based on quats. DES are quite similar to ionic liquids (ILs) and are used as well as alternative solvents with a great diversity of physical properties, making them attractive for replacement of hazardous, volatile solvents (e.g. VOCs). A remarkable difference between genuine DES and ILs with the solutions used in this project is the addition of rather large quantities of water. It is shown the presence of water has a lot of advantages on the leaching of metals, while the properties typical for DES still remain. The oxidizing capacities of Cu(II) stem from the existence of a stable Cu(I) component in quat based DES and thus the leaching stems from the activity of the Cu(II)/Cu(I) redox couple. The advantage of Fe(III) in combination with DES is the fact that the Fe(III)/Fe(II) redox couple becomes reversible, which is not true in pure water. This opens perspectives for regeneration of the etching solution. In this project the leaching of copper was studied as a function of gradual increasing water content from 0 - 100w% with the same concentration of copper chloride or iron(III) chloride at room temperature and 80ºC. The solutions were also tested on real PCBs. At room temperature a maximum leaching effect for copper was obtained with 30w% choline chloride with 0.2 M CuCl2.2H2O. The leaching effect is still stronger at 80°C, b ut of course these solutions are more energy consuming. For aluminium, tin, zinc and lead, the leaching was faster at 80ºC. Iron and nickel dissolved easily at room temperature. The solutions were not able to dissolve gold, silver, rhodium and platinum.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A indústria da construção, nomeadamente no sector da edificação, baseia-se essencialmente em métodos de construção tradicional. Esta indústria é caracterizada pelo consumo excessivo de matérias-primas, de recursos energéticos não renováveis e pela elevada produção de resíduos. Esta realidade é de todo incompatível com os desígnios do desenvolvimento sustentável, nos quais se procura a conveniência harmoniosa entre as dimensões ambiental, social e económica. O desafio da sustentabilidade, colocado à actividade da construção, tem motivado abordagens distintas, não só por parte das várias especialidades da engenharia, como também da arquitectura. É nesta perspectiva, que o presente modelo pretende ser um contributo para uma abordagem inovadora, introduzindo linhas de intervenção e de orientação, para apoiar e estimular o desenvolvimento de soluções sustentáveis em edifícios habitacionais, em qualquer fase do ciclo de evolução de um projecto e das várias especialidades do mesmo. Assim, no sentido de optimizar os recursos envolvidos no projecto são expostas estratégias de intervenção, com os seguintes objectivos: optimização do potencial do local, preservação da identidade regional e cultural, minimização do consumo de energia, utilização de materiais e produtos de baixo impacto ambiental, redução do consumo de água, redução da produção de emissões, resíduos e outros poluentes, adequada qualidade do ambiente interior e optimização das fases de operação e manutenção. A ferramenta apresentada surge como um instrumento facilitador para a equipa de projectistas, e que se esta adaptada para o desenvolvimento de projectos de edifícios de habitação, dada a génese dos métodos utilizados. As soluções de sustentabilidade apresentadas neste manual emanam dos sistemas de certificação LíderA, LEED, BREEAM e SBToolpt. O modelo encontra-se estruturado, no que às fases de projecto diz respeito, de acordo com os requisitos expressos na Portaria 701-H/2008 de 29 de Julho, tendo sido igualmente seguido o descrito para os respectivos intervenientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Specific marine macro algae species abundant at the Portuguese coast (Laminaria hyperborea, Bifurcaria bifurcata, Sargassum muticum and Fucus spiralis) were shown to be effective for removing toxic metals (Cd(II), Zn(II) and Pb(II)) from aqueous solutions. The initial metal concentrations in solution were about 75–100 mg L−1. The observed biosorption capacities for cadmium, zinc and lead ions were in the ranges of 23.9–39.5, 18.6–32.0 and 32.3–50.4 mg g−1, respectively. Kinetic studies revealed that the metal uptake rate was rather fast, with 75% of the total amount occurring in the first 10 min for all algal species. Experimental data were well fitted by a pseudo-second order rate equation. The contribution of internal diffusion mechanism was significant only to the initial biosorption stage. Results indicate that all the studied macro algae species can provide an efficient and cost-effective technology for eliminating heavy metals from industrial effluents.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Two analytical methods for the quality control of dihydrocodeine in commercial pharmaceutical formulations have been developed and compared with reference methods: a square wave voltammetric (SWV) method and a flow injection analysis system with electrochemical detection (FIA-EC). The electrochemical methods proposed were successfully applied to the determination of dihydrocodeine in pharmaceutical tablets and in oral solutions. These methods do not require any pretreatment of the samples, the formulation only being dissolved in a suitable electrolyte. Validation of the methods showed it to be precise, accurate and linear over the concentration range of analysis. The automatic procedure based on a flow injection analysis manifold allows a sampling rate of 115 determinations per hour.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Secure group communication is a paradigm that primarily designates one-to-many communication security. The proposed works relevant to secure group communication have predominantly considered the whole network as being a single group managed by a central powerful node capable of supporting heavy communication, computation and storage cost. However, a typical Wireless Sensor Network (WSN) may contain several groups, and each one is maintained by a sensor node (the group controller) with constrained resources. Moreover, the previously proposed schemes require a multicast routing support to deliver the rekeying messages. Nevertheless, multicast routing can incur heavy storage and communication overheads in the case of a wireless sensor network. Due to these two major limitations, we have reckoned it necessary to propose a new secure group communication with a lightweight rekeying process. Our proposal overcomes the two limitations mentioned above, and can be applied to a homogeneous WSN with resource-constrained nodes with no need for a multicast routing support. Actually, the analysis and simulation results have clearly demonstrated that our scheme outperforms the previous well-known solutions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In embedded systems, the timing behaviour of the control mechanisms are sometimes of critical importance for the operational safety. These high criticality systems require strict compliance with the offline predicted task execution time. The execution of a task when subject to preemption may vary significantly in comparison to its non-preemptive execution. Hence, when preemptive scheduling is required to operate the workload, preemption delay estimation is of paramount importance. In this paper a preemption delay estimation method for floating non-preemptive scheduling policies is presented. This work builds on [1], extending the model and optimising it considerably. The preemption delay function is subject to a major tightness improvement, considering the WCET analysis context. Moreover more information is provided as well in the form of an extrinsic cache misses function, which enables the method to provide a solution in situations where the non-preemptive regions sizes are small. Finally experimental results from the implementation of the proposed solutions in Heptane are provided for real benchmarks which validate the significance of this work.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Time-sensitive Wireless Sensor Network (WSN) applications require finite delay bounds in critical situations. This paper provides a methodology for the modeling and the worst-case dimensioning of cluster-tree WSNs. We provide a fine model of the worst-case cluster-tree topology characterized by its depth, the maximum number of child routers and the maximum number of child nodes for each parent router. Using Network Calculus, we derive “plug-and-play” expressions for the endto- end delay bounds, buffering and bandwidth requirements as a function of the WSN cluster-tree characteristics and traffic specifications. The cluster-tree topology has been adopted by many cluster-based solutions for WSNs. We demonstrate how to apply our general results for dimensioning IEEE 802.15.4/Zigbee cluster-tree WSNs. We believe that this paper shows the fundamental performance limits of cluster-tree wireless sensor networks by the provision of a simple and effective methodology for the design of such WSNs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Optimization problems arise in science, engineering, economy, etc. and we need to find the best solutions for each reality. The methods used to solve these problems depend on several factors, including the amount and type of accessible information, the available algorithms for solving them, and, obviously, the intrinsic characteristics of the problem. There are many kinds of optimization problems and, consequently, many kinds of methods to solve them. When the involved functions are nonlinear and their derivatives are not known or are very difficult to calculate, these methods are more rare. These kinds of functions are frequently called black box functions. To solve such problems without constraints (unconstrained optimization), we can use direct search methods. These methods do not require any derivatives or approximations of them. But when the problem has constraints (nonlinear programming problems) and, additionally, the constraint functions are black box functions, it is much more difficult to find the most appropriate method. Penalty methods can then be used. They transform the original problem into a sequence of other problems, derived from the initial, all without constraints. Then this sequence of problems (without constraints) can be solved using the methods available for unconstrained optimization. In this chapter, we present a classification of some of the existing penalty methods and describe some of their assumptions and limitations. These methods allow the solving of optimization problems with continuous, discrete, and mixing constraints, without requiring continuity, differentiability, or convexity. Thus, penalty methods can be used as the first step in the resolution of constrained problems, by means of methods that typically are used by unconstrained problems. We also discuss a new class of penalty methods for nonlinear optimization, which adjust the penalty parameter dynamically.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the last twenty years genetic algorithms (GAs) were applied in a plethora of fields such as: control, system identification, robotics, planning and scheduling, image processing, and pattern and speech recognition (Bäck et al., 1997). In robotics the problems of trajectory planning, collision avoidance and manipulator structure design considering a single criteria has been solved using several techniques (Alander, 2003). Most engineering applications require the optimization of several criteria simultaneously. Often the problems are complex, include discrete and continuous variables and there is no prior knowledge about the search space. These kind of problems are very more complex, since they consider multiple design criteria simultaneously within the optimization procedure. This is known as a multi-criteria (or multiobjective) optimization, that has been addressed successfully through GAs (Deb, 2001). The overall aim of multi-criteria evolutionary algorithms is to achieve a set of non-dominated optimal solutions known as Pareto front. At the end of the optimization procedure, instead of a single optimal (or near optimal) solution, the decision maker can select a solution from the Pareto front. Some of the key issues in multi-criteria GAs are: i) the number of objectives, ii) to obtain a Pareto front as wide as possible and iii) to achieve a Pareto front uniformly spread. Indeed, multi-objective techniques using GAs have been increasing in relevance as a research area. In 1989, Goldberg suggested the use of a GA to solve multi-objective problems and since then other researchers have been developing new methods, such as the multi-objective genetic algorithm (MOGA) (Fonseca & Fleming, 1995), the non-dominated sorted genetic algorithm (NSGA) (Deb, 2001), and the niched Pareto genetic algorithm (NPGA) (Horn et al., 1994), among several other variants (Coello, 1998). In this work the trajectory planning problem considers: i) robots with 2 and 3 degrees of freedom (dof ), ii) the inclusion of obstacles in the workspace and iii) up to five criteria that are used to qualify the evolving trajectory, namely the: joint traveling distance, joint velocity, end effector / Cartesian distance, end effector / Cartesian velocity and energy involved. These criteria are used to minimize the joint and end effector traveled distance, trajectory ripple and energy required by the manipulator to reach at destination point. Bearing this ideas in mind, the paper addresses the planning of robot trajectories, meaning the development of an algorithm to find a continuous motion that takes the manipulator from a given starting configuration up to a desired end position without colliding with any obstacle in the workspace. The chapter is organized as follows. Section 2 describes the trajectory planning and several approaches proposed in the literature. Section 3 formulates the problem, namely the representation adopted to solve the trajectory planning and the objectives considered in the optimization. Section 4 studies the algorithm convergence. Section 5 studies a 2R manipulator (i.e., a robot with two rotational joints/links) when the optimization trajectory considers two and five objectives. Sections 6 and 7 show the results for the 3R redundant manipulator with five goals and for other complementary experiments are described, respectively. Finally, section 8 draws the main conclusions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Remote engineering (also known as online engineering) may be defined as a combination of control engineering and telematics. In this area, specific activities require computacional skills in order to develop projects where electrical devives are monitored and / or controlled, in an intercative way, through a distributed network (e.g. Intranet or Internet). In our specific case, we will be dealing with an industrial plant. Within the last few years, there has been an increase in the number of activities related to remote engineering, which may be connected to the phenomenon of the large extension experienced by the Internet (e.g. bandwith, number of users, development tools, etc.). This increase opens new and future possibilities to the implementation of advance teleworking (or e-working) positions. In this paper we present the architecture for a remote application, accessible through the Internet, able to monitor and control a roller hearth kiln, used in a ceramics industry for firing materials. The proposed architecture is based on a micro web server, whose main function is to monitor and control the firing process, by reading the data from a series of temperature sensors and by controlling a series of electronic valves and servo motors. This solution is also intended to be a low-cost alternative to other potential solutions. The temperature readings are obtained through K-type thermopairs and the gas flow is controlled through electrovalves. As the firing process should not be stopped before its complete end, the system is equipped with a safety device for that specific purpose. For better understanding the system to be automated and its operation we decided to develop a scale model (100:1) and experiment on it the devised solution, based on a Micro Web Server.