84 resultados para Particle Level Set
Resumo:
A CIF é uma ferramenta universal desenvolvida pela OMS que permite a classificação de funcionalidade e incapacidade, através de uma visualização global do que condiciona o desempenho do indivíduo na concretização de atividades e na participação em ocupações. A ideologia da CIF e os seus componentes interrelacionam-se com a essência da TO, indo ao encontro dos modelos da profissão. As UCCI constituem uma atualidade em Portugal e o terapeuta ocupacional é um dos profissionais obrigatórios na equipa multidisciplinar destas unidades. Atendendo à relevância internacional da CIF, à sua ligação com a TO e à necessidade de tornar a CIF operacional na prática clínica diária dado que é uma ferramenta complexa e extensa, é objetivo deste estudo contribuir para a construção de um code set da CIF para terapeutas ocupacionais que exercem funções em UCCI, especificamente em UC, UMDR e ULDM. Para a concretização desta investigação, utilizou-se a técnica de Delphi, que envolveu duas rondas. Na primeira ronda foi possível contar com a participação de 37 terapeutas ocupacionais experientes na área, uma vez que exercem funções em UCCI, e na segunda ronda contou-se com a participação de 20 elementos. Obtiveram consenso na última ronda de Delphi um total de 96 categorias, constituindo esta listagem uma proposta de code set para UCCI. No que se refere às tipologias de unidades, 69 categorias obtiveram consenso em UC, 91 em UMDR e 41 em ULDM. Concluiu-se que a criação de code sets poderá constituir uma mais-valia em contexto de equipa multidisciplinar das UCCI, sendo uma forma de tornar a CIF operacional na prática clínica diária.
Resumo:
O objectivo desta tese é dimensionar um secador em leito fluidizado para secagem de cereais, nomeadamente, secagem de sementes de trigo. Inicialmente determinaram-se as condições de hidrodinâmica (velocidade de fluidização, TDH, condições mínimas de “slugging”, expansão do leito, dimensionamento do distribuidor e queda de pressão). Com as condições de hidrodinâmica definidas, foi possível estimar as dimensões físicas do secador. Neste ponto, foram realizados estudos relativamente à cinética da secagem e à própria secagem. Foi também estudado o transporte pneumático das sementes. Deste modo, determinaram-se as velocidades necessárias ao transporte pneumático e respectivas quedas de pressão. Por fim, foi realizada uma análise custos para que se soubesse o custo deste sistema de secagem. O estudo da secagem foi feito para uma temperatura de operação de 50ºC, tendo a ressalva que no limite se poderia trabalhar com 60ºC. A velocidade de operação é de 2,43 m/s, a altura do leito fixo é de 0,4 m, a qual sofre uma expansão durante a fluidização, assumindo o valor de 0,79 m. O valor do TDH obtido foi de 1,97 m, que somado à expansão do leito permite obter uma altura total da coluna de 2,76 m. A altura do leito fixo permite retirar o valor do diâmetro que é de 0,52 m. Verifica-se que a altura do leito expandido é inferior à altura mínima de “slugging” (1,20 m), no entanto, a velocidade de operação é superior à velocidade mínima de “slugging” (1,13 m/s). Como só uma das condições mínimas é cumprida, existe a possibilidade da ocorrência de “slugging”. Finalmente, foi necessário dimensionar o distribuidor, que com o diâmetro de orifício de 3 mm, valor inferior ao da partícula (3,48 mm), permite a distruibuição do fluido de secagem na coluna através dos seus 3061 orifícios. O inicio do estudo da secagem centrou-se na determinação do tempo de secagem. Além das duas temperaturas atrás referidas, foram igualmente consideradas duas humidades iniciais para os cereais (21,33% e 18,91%). Temperaturas superiores traduzem-se em tempos de secagem inferiores, paralelamente, teores de humidade inicial inferiores indicam tempos menores. Para a temperatura de 50ºC, os tempos de secagem assumiram os valores de 2,8 horas para a 21,33% de humidade e 2,7 horas para 18,91% de humidade. Foram também tidas em conta três alturas do ano para a captação do ar de secagem, Verão e Inverno representando os extremos, e a Meia- Estação. Para estes três casos, foi possível verificar que a humidade específica do ar não apresenta alterações significativas entre a entrada no secador e a corrente de saída do mesmo equipamento, do mesmo modo que a temperatura de saída pouco difere da de entrada. Este desvio de cerca de 1% para as humidades e para as temperaturas é explicado pela ausência de humidade externa nas sementes e na pouca quantidade de humidade interna. Desta forma, estes desvios de 1% permitem a utilização de uma razão de reciclagem na ordem dos 100% sem que o comportamento da secagem se altere significativamente. O uso de 100% de reciclagem permite uma poupança energética de cerca de 98% no Inverno e na Meia-Estação e de cerca de 93% no Verão. Caso não fosse realizada reciclagem, seria necessário fornecer à corrente de ar cerca de 18,81 kW para elevar a sua temperatura de 20ºC para 50ºC (Meia-Estação), cerca de 24,67 kW para elevar a sua temperatura de 10ºC para 50ºC (Inverno) e na ordem dos 8,90 kW para elevar a sua temperatura dos 35ºC para 50ºC (Verão). No caso do transporte pneumático, existem duas linhas, uma horizontal e uma vertical, logo foi necessário estimar o valor da velocidade das partículas para estes dois casos. Na linha vertical, a velocidade da partícula é cerca de 25,03 m/s e cerca de 35,95 m/s na linha horizontal. O menor valor para a linha vertical prende-se com o facto de nesta zona ter que se vencer a força gravítica. Em ambos os circuitos a velocidade do fluido é cerca de 47,17 m/s. No interior da coluna, a velocidade do fluido tem o valor de 10,90 m/s e a velocidade das partículas é de 1,04 m/s. A queda de pressão total no sistema é cerca de 2408 Pa. A análise de custos ao sistema de secagem indicou que este sistema irá acarretar um custo total (fabrico mais transporte) de cerca de 153035€. Este sistema necessita de electricidade para funcionar, e esta irá acarretar um custo anual de cerca de 7951,4€. Embora este sistema de secagem apresente a possibilidade de se realizar uma razão de reciclagem na ordem dos 100% e também seja possível adaptar o mesmo para diferentes tipos de cereais, e até outros tipos de materiais, desde que possam ser fluidizados, o seu custo impede que a realização deste investimento não seja atractiva, especialmente tendo em consideração que se trata de uma instalação à escala piloto com uma capacidade de 45 kgs.
Resumo:
The introduction of electricity markets and integration of Distributed Generation (DG) have been influencing the power system’s structure change. Recently, the smart grid concept has been introduced, to guarantee a more efficient operation of the power system using the advantages of this new paradigm. Basically, a smart grid is a structure that integrates different players, considering constant communication between them to improve power system operation and management. One of the players revealing a big importance in this context is the Virtual Power Player (VPP). In the transportation sector the Electric Vehicle (EV) is arising as an alternative to conventional vehicles propel by fossil fuels. The power system can benefit from this massive introduction of EVs, taking advantage on EVs’ ability to connect to the electric network to charge, and on the future expectation of EVs ability to discharge to the network using the Vehicle-to-Grid (V2G) capacity. This thesis proposes alternative strategies to control these two EV modes with the objective of enhancing the management of the power system. Moreover, power system must ensure the trips of EVs that will be connected to the electric network. The EV user specifies a certain amount of energy that will be necessary to charge, in order to ensure the distance to travel. The introduction of EVs in the power system turns the Energy Resource Management (ERM) under a smart grid environment, into a complex problem that can take several minutes or hours to reach the optimal solution. Adequate optimization techniques are required to accommodate this kind of complexity while solving the ERM problem in a reasonable execution time. This thesis presents a tool that solves the ERM considering the intensive use of EVs in the smart grid context. The objective is to obtain the minimum cost of ERM considering: the operation cost of DG, the cost of the energy acquired to external suppliers, the EV users payments and remuneration and penalty costs. This tool is directed to VPPs that manage specific network areas, where a high penetration level of EVs is expected to be connected in these areas. The ERM is solved using two methodologies: the adaptation of a deterministic technique proposed in a previous work, and the adaptation of the Simulated Annealing (SA) technique. With the purpose of improving the SA performance for this case, three heuristics are additionally proposed, taking advantage on the particularities and specificities of an ERM with these characteristics. A set of case studies are presented in this thesis, considering a 32 bus distribution network and up to 3000 EVs. The first case study solves the scheduling without considering EVs, to be used as a reference case for comparisons with the proposed approaches. The second case study evaluates the complexity of the ERM with the integration of EVs. The third case study evaluates the performance of scheduling with different control modes for EVs. These control modes, combined with the proposed SA approach and with the developed heuristics, aim at improving the quality of the ERM, while reducing drastically its execution time. The proposed control modes are: uncoordinated charging, smart charging and V2G capability. The fourth and final case study presents the ERM approach applied to consecutive days.
Resumo:
Este trabalho apresenta o estudo das leis de propagação das velocidades de vibração resultantes do uso de explosivo em diferentes maciços. Foram efectuados estudos para três tipos de maciços diferentes, granito, quartzito e calcário. Efectuaram-se campanhas de monitorização e registo dos dados em cada uma das situações. Caracterizando e utilizando duas leis de propagação de velocidades no maciço, a de Johnson e Langefors, calculou-se as suas variáveis por método estatístico de regressões lineares múltiplas. Com a obtenção das variáveis fizeram-se estudos de previsão dos valores de vibração a obter utilizando a carga explosiva aplicada nos desmontes. Através dos valores de vibração obtidos em cada pega de fogo para cada tipo de maciço comparou-se quais das duas leis apresentam o valor de velocidade de vibração menor desviado do real. Conforme ficou verificado neste estudo, a equação de Langefors garante uma mais-valia da sua aplicação na previsão das velocidades de vibração pois joga favoravelmente a nível da segurança assim como apresenta um menor desvio face à equação de Johnson quando comparada com o valor real de vibração obtido. Com isto o método de utilização de regressões lineares múltiplas como cálculo dos efeitos vibratórios é extremamente vantajoso a nível de prevenção de danos e cálculo de velocidades de vibração inferiores ao imposto pela Norma.
Resumo:
Neste trabalho serão apresentados e discutidos vários aspectos relacionados com células de combustível, com particular enfoque na modelação de células de combustível de membrana de permuta protónica. Este trabalho está dividido em vários capítulos. No Capítunlo 1 são apresentadas as motivações e os objectivos da tese. No Capítulo 2 serão apresentadas as células de combustível em geral, a sua origem, os diversos tipos, o que as diferencia das restantes tecnologias de geração de energia e as suas vantagens e desvantagens. No Capítulo 3 discute-se a modelação de células de combustível. Serão expostos e explicados os diferentes tipos de modelos, seguindo-se uma apresentação do modelo selecionado para estudo, com referência aos fundamentos teóricos exposição detalhada da fórmulação matemática e os parâmetros que caracterizam o modelo. É também apresentado a implementação do modelo em Matlab/Simulink. No Capítulo 4 será discutida e apresentada a abordagem utilizada para a identificação dos parâmetros do modelo da célula de combustível. Propõe-se e prova-se que uma abordagem baseada num algoritmo de optimização inteligente proporciona um método eficaz e preciso para a identificação dos parâmetros. Esta abordagem requer a existência de alguns dados experimentais que são também apresentados. O algoritmo utilizado designa-se por Optimização por Enxame de Partículas – Particle Swarm Optimization (PSO). São apresentados os seus fundamentos, características, implementação em Matlab/Simulink e a estratégia de optimização, isto é, a configuração do algoritmo, a definição da função objectivo e limites de variação dos parâmetros. São apresentados os resultados do processo de optimização, resultados adicionais de validação do modelo, uma análise de robustez do conjunto óptimo de parâmetros e uma análise de sensibilidade dos mesmos. O trabalho termina apresentando, no último capítulo, algumas conclusões, das quais se destacam: - O bom desempenho do algoritmo PSO para a identificação dos parâmetros do modelo da célula de combsutível; - Uma robustez interessante do algoritmo PSO, no sentido em que, para várias execuções do método resultam valores do parâmetros e da função objectivo com variabilidade bastante reduzidas; - Um bom modelo da célula de combustível, que quando caracterizado pelo conjunto óptimo de parâmetros, apresenta, sistematicamente, erros relativos médios inferiores a 2,5% para um conjunto alargado de condições de funcionamento.
Resumo:
A realização desta Tese/Dissertação tem como objectivo o estudo e implementação piloto de um Sistema de Supervisão e Aquisição de dados (SCADA) na Swedwood Portugal, na qual exerço as funções de Engenheiro de Processo nas linhas de montagem de mobiliário. Foi efectuado um estudo das necessidades da empresa relativamente às melhorias dos processos das linhas de montagem, com o intuito de melhorar a montagem do semi-produto, a nível de qualidade das matérias-primas, operação e desempenho de equipamentos. Chegou-se à conclusão que existe uma grande necessidade de controlar a qualidade das matérias-primas utilizadas na construção do semi-produto em tempo real, de modo a que seja possível diminuir a complexidade na recolha atempada de amostras por parte dos elementos de operação e diminuir o atraso da entrega de resultados das amostras por parte do laboratório. A colagem é um elemento crítico na montagem do semi-produto, devido às variações de viscosidade da cola, consequência das variações climatéricas a que foi sujeita, desde a saída do fornecedor até à sua utilização nas linhas de montagem. Para tal concebeu-se uma solução para dar uma resposta mais rápida no controlo de qualidade da cola à base de acetato de polivinil (PVAC), ou seja, a implementação piloto de um sistema SCADA na sala de colas, de modo a que haja um controlo a nível de temperatura e humidade, controlo de viscosidade em tempo real e controlo do nível da cola na cuba, fazendo com que haja só uma supervisão por parte dos elementos de operação. Optou-se por um conjunto de hardware e software da SIMATIC desenvolvido pela Siemens, para elaboração da programação e desenvolvimento da Interface Homem Máquina (HMI).
Resumo:
Com a expansão da Televisão Digital e a convergência entre os meios de difusão convencionais e a televisão sobre IP, o número de canais disponíveis tem aumentado de forma gradual colocando o espectador numa situação de difícil escolha quanto ao programa a visionar. Sobrecarregados com uma grande quantidade de programas e informação associada, muitos espectadores desistem sistematicamente de ver um programa e tendem a efectuar zapping entre diversos canais ou a assistir sempre aos mesmos programas ou canais. Diante deste problema de sobrecarga de informação, os sistemas de recomendação apresentam-se como uma solução. Nesta tese pretende estudar-se algumas das soluções existentes dos sistemas de recomendação de televisão e desenvolver uma aplicação que permita a recomendação de um conjunto de programas que representem potencial interesse ao espectador. São abordados os principais conceitos da área dos algoritmos de recomendação e apresentados alguns dos sistemas de recomendação de programas de televisão desenvolvidos até à data. Para realizar as recomendações foram desenvolvidos dois algoritmos baseados respectivamente em técnicas de filtragem colaborativa e de filtragem de conteúdo. Estes algoritmos permitem através do cálculo da similaridade entre itens ou utilizadores realizar a predição da classificação que um utilizador atribuiria a um determinado item (programa de televisão, filme, etc.). Desta forma é possível avaliar o nível de potencial interesse que o utilizador terá em relação ao respectivo item. Os conjuntos de dados que descrevem as características dos programas (título, género, actores, etc.) são armazenados de acordo com a norma TV-Anytime. Esta norma de descrição de conteúdo multimédia apresenta a vantagem de ser especificamente vocacionada para conteúdo audiovisual e está disponível livremente. O conjunto de recomendações obtidas é apresentado ao utilizador através da interacção com uma aplicação Web que permite a integração de todos os componentes do sistema. Para validação do trabalho foi considerado um dataset de teste designado de htrec2011-movielens-2k e cujo conteúdo corresponde a um conjunto de filmes classificados por diversos utilizadores num ambiente real. Este conjunto de filmes possui, para além da classificações atribuídas pelos utilizadores, um conjunto de dados que descrevem o género, directores, realizadores e país de origem. Para validação final do trabalho foram realizados diversos testes dos quais o mais relevante correspondeu à avaliação da distância entre predições e valores reais e cujo objectivo é classificar a capacidade dos algoritmos desenvolvidos preverem com precisão as classificações que os utilizadores atribuiriam aos itens analisados.
Resumo:
This chapter aims to demonstrate how PAOL - Unit for Innovation in Education, a project from ISCAP - School of Accounting and Administration of Oporto ....
Resumo:
Este trabalho teve como objectivo a avaliação da actual situação da indústria corticeira, o levantamento de eventuais possibilidades de inovação e o estudo de um caso promissor. Como caso promissor, decidiu-se estudar o efeito da pirólise nos resíduos de cortiça. A análise da situação actual da indústria corticeira aponta para a procura de novos produtos no sentido de alargar o mercado e promover um melhor escoamento deste recurso natural. Apesar de todos os esforços efectuados até ao momento, verifica-se que a indústria vinícola continua a ser o principal mercado da cortiça. O avanço da tecnologia tem permitido o desenvolvimento de novos produtos, alguns ainda em fase de desenvolvimento, e aponta para um potencial de inovação a vários níveis: ao nível do processo de transformação, no sentido da sua optimização; ao nível do desenvolvimento de novos produtos dado o potencial já demonstrado pela cortiça em desenvolvimentos recentes; ao nível da valorização de resíduos como, por exemplo, a consolidação de processo de recuperação de taninos da água de cozedura, a obtenção de suberina e poliois do pó e aparas de cortiça e a pirólise das aparas e pó de cortiça. Como estudo de caso, efectuou-se o estudo do efeito da pirólise em resíduos de cortiça natural, para se poder conhecer as características dos produtos obtidos bem como as condições óptimas de operação. Neste fase inicial e optou-se por se analisar as propriedades parte sólida de modo a saber as alterações sofridas durante a pirólise e estas podem apresentar uma mais-valia para o mercado corticeiro. Para efectuar o respectivo trabalho, recorreu-se a um forno pirolítico horizontal tipo Splitz e utilizou-se cortiça natural com granulometria entre 2,88 e 4,00mm. A pirólise foi realizada entre a gama de temperaturas de 400 e 900ºC e para duas rampas de aquecimento de 5ºC/min e 10ºC/min. O estudo experimental revela que na gama de temperaturas entre os 600 e 800ºC é onde a carbonização do resíduo está completa, sendo para essa mesma gama de temperaturas que se verifica, no resíduo carbonoso, um maior teor de carbono. Relativamente às rampas de aquecimento estas não apresentam efeitos significativos nas massas e teores de carbono no resíduo carbonoso final. Verificouse também, que o teor de hidrogénio diminui com o aumento da temperatura. Conclui-se que a pirólise consegue degradar os resíduos de cortiça levando à libertação de compostos que poderão ser uma mais-valia.
Resumo:
The mechanisms of speech production are complex and have been raising attention from researchers of both medical and computer vision fields. In the speech production mechanism, the articulator’s study is a complex issue, since they have a high level of freedom along this process, namely the tongue, which instigates a problem in its control and observation. In this work it is automatically characterized the tongues shape during the articulation of the oral vowels of Portuguese European by using statistical modeling on MR-images. A point distribution model is built from a set of images collected during artificially sustained articulations of Portuguese European sounds, which can extract the main characteristics of the motion of the tongue. The model built in this work allows under standing more clearly the dynamic speech events involved during sustained articulations. The tongue shape model built can also be useful for speech rehabilitation purposes, specifically to recognize the compensatory movements of the articulators during speech production.
Resumo:
Background Information:The incorporation of distance learning activities by institutions of higher education is considered an important contribution to create new opportunities for teaching at both, initial and continuing training. In Medicine and Nursing, several papers illustrate the adaptation of technological components and teaching methods are prolific, however, when we look at the Pharmaceutical Education area, the examples are scarce. In that sense this project demonstrates the implementation and assessment of a B-Learning Strategy for Therapeutics using a “case based learning” approach. Setting: Academic Pharmacy Methods:This is an exploratory study involving 2nd year students of the Pharmacy Degree at the School of Allied Health Sciences of Oporto. The study population consists of 61 students, divided in groups of 3-4 elements. The b-learning model was implemented during a time period of 8 weeks. Results:A B-learning environment and digital learning objects were successfully created and implemented. Collaboration and assessment techniques were carefully developed to ensure the active participation and fair assessment of all students. Moodle records show a consistent activity of students during the assignments. E-portfolios were also developed using Wikispaces, which promoted reflective writing and clinical reasoning. Conclusions:Our exploratory study suggests that the “case based learning” method can be successfully combined with the technological components to create and maintain a feasible online learning environment for the teaching of therapeutics.
Resumo:
Serious games are starting to attain a higher role as tools for learning in various contexts, but in particular in areas such as education and training. Due to its characteristics, such as rules, behavior simulation and feedback to the player's actions, serious games provide a favorable learning environment where errors can occur without real life penalty and students get instant feedback from challenges. These challenges are in accordance with the intended objectives and will self-adapt and repeat according to the student’s difficulty level. Through motivating and engaging environments, which serve as base for problem solving and simulation of different situations and contexts, serious games have a great potential to aid players developing professional skills. But, how do we certify the acquired knowledge and skills? With this work we intend to propose a methodology to establish a relationship between the game mechanics of serious games and an array of competences for certification, evaluating the applicability of various aspects in the design and development of games such as the user interfaces and the gameplay, obtaining learning outcomes within the game itself. Through the definition of game mechanics combined with the necessary pedagogical elements, the game will ensure the certification. This paper will present a matrix of generic skills, based on the European Framework of Qualifications, and the definition of the game mechanics necessary for certification on tour guide training context. The certification matrix has as reference axes: skills, knowledge and competencies, which describe what the students should learn, understand and be able to do after they complete the learning process. The guides-interpreters welcome and accompany tourists on trips and visits to places of tourist interest and cultural heritage such as museums, palaces and national monuments, where they provide various information. Tour guide certification requirements include skills and specific knowledge about foreign languages and in the areas of History, Ethnology, Politics, Religion, Geography and Art of the territory where it is inserted. These skills are communication, interpersonal relationships, motivation, organization and management. This certification process aims to validate the skills to plan and conduct guided tours on the territory, demonstrate knowledge appropriate to the context and finally match a good group leader. After defining which competences are to be certified, the next step is to delineate the expected learning outcomes, as well as identify the game mechanics associated with it. The game mechanics, as methods invoked by agents for interaction with the game world, in combination with game elements/objects allows multiple paths through which to explore the game environment and its educational process. Mechanics as achievements, appointments, progression, reward schedules or status, describe how game can be designed to affect players in unprecedented ways. In order for the game to be able to certify tour guides, the design of the training game will incorporate a set of theoretical and practical tasks to acquire skills and knowledge of various transversal themes. For this end, patterns of skills and abilities in acquiring different knowledge will be identified.
Resumo:
Multi-objective particle swarm optimization (MOPSO) is a search algorithm based on social behavior. Most of the existing multi-objective particle swarm optimization schemes are based on Pareto optimality and aim to obtain a representative non-dominated Pareto front for a given problem. Several approaches have been proposed to study the convergence and performance of the algorithm, particularly by accessing the final results. In the present paper, a different approach is proposed, by using Shannon entropy to analyzethe MOPSO dynamics along the algorithm execution. The results indicate that Shannon entropy can be used as an indicator of diversity and convergence for MOPSO problems.
Resumo:
O uso da energia eólica para a produção de eletricidade apresenta na última década um crescimento apreciável. Monitorizar o desempenho dos aerogeradores torna-se um processo incontornável, quer por motivos financeiros, quer por questões operacionais. Os investimentos despendidos na construção de parques eólicos são muito consideráveis, pelo que é essencial a análise constante dos aspetos preponderantes no retorno do investimento. A maximização da energia produzida por cada aerogerador é o objetivo principal da monitorização dos parques eólicos. Os sistemas Supervisory Control and Data Acquisition (SCADAs) instalados nos parques eólicos permitem uma supervisão em tempo real relativamente ao estado e funcionamento dos aerogeradores, adquirindo uma elevada importância na avaliação dos rendimentos energéticos e anomalias de funcionamento, garantido desta forma melhorias de produtividade. O objetivo deste trabalho é estimar a energia produzida pelos aerogeradores quando ocorrem falhas de comunicação com o seu contador interno ou avaria do mesmo. A ocorrência destas situações não permite a monitorização da energia produzida durante esse período. Foram analisados dados operacionais dos aerogeradores relativos a um parque eólico localizado na zona Norte de Portugal, sendo usados os dados recolhidos pelo sistema SCADA sobre a forma de médias de 10 min referentes ao período de janeiro de 2011 a agosto 2011. O desempenho da rede neuronal depende da qualidade e quantidade do conjunto de dados usados para o treino da rede. Os dados usados devem representar de forma fiel o estado que se pretende para o equipamento. Para a obtenção do objetivo proposto foi fundamental a identificação das grandezas disponíveis a utilizar no método de cálculo da energia produzida. Os resultados obtidos com aplicação das redes neuronais no método de cálculo da energia produzida por aerogeradores demonstram que independentemente do período de indisponibilidade da informação referente à energia produzida é possível estimar o valor da mesma.
Resumo:
Background: Physiotherapy has a very important role in the maintenance of the integumentary system integrity. There is very few evidence in humans. Nevertheless, there are some studies about tissue regeneration using low-level laser therapy (LLLT). Aim: To analyze the effectiveness of LLLT on scar tissue. Methods: Seventeen volunteers were stratified by age of their scars, and then randomly assigned to an experimental group (EG) — n = 9 – and a placebo group (PG) – n = 8. Fifteen sessions were conducted to both the groups thrice a week. However, in the PG, the laser device was switched off. Scars’ thickness, length, width, macroscopic aspect, pain threshold, pain perception, and itching were measured. Results: After 5 weeks, there were no statistically significant differences in any variable between both the groups. However, analyzing independently each group, EG showed a significant improvement in macroscopic aspect (p = 0.003) using LLLT. Taking into account the scars’ age, LLLT showed a tendency to decrease older scars’ thickness in EG. Conclusion: The intervention with LLLT appears to have a positive effect on the macroscopic scars’ appearance, and on old scars’ thickness, in the studied sample. However, it cannot be said for sure that LLLT has influence on scar tissue.