971 resultados para Obstacle Avoidance
Resumo:
Numa Estação de Tratamento de Águas Residuais (ETAR), a otimização do processo de Digestão Anaeróbia (DA) é fundamental para o aumento da produção de biogás, que por sua vez é convertido em energia, essencial para a rentabilidade de exploração de ETAR. No entanto, a complexidade do processo de Digestão Anaeróbia das lamas constitui um obstáculo à sua otimização. Com este trabalho pretende-se efetuar a análise e tratamento de dados de Digestão Anaeróbia, com recurso a Redes Neuronais Artificiais (RNA), contribuindo, desta forma, para a compreensão do processo e do impacto de algumas variáveis na produção de biogás. As Redes Neuronais Artificiais são modelos matemáticos computacionais inspirados no funcionamento do cérebro humano, com capacidade para entender relações complexas num determinado conjunto de dados, motivo por que se optou pela sua utilização na procura de soluções que permitem predizer o comportamento de uma DA. Para o desenvolvimento das RNA utilizou-se o programa NeuralToolsTM da PalisadeTM. Como caso de estudo, a metodologia foi aplicada ao Digestor A da ETAR Sul da SIMRIA, empresa onde teve lugar o estágio curricular que originou o presente trabalho. Nesse contexto, utilizaram-se dados com informação referente aos últimos dois anos de funcionamento do digestor, disponíveis na empresa. Apesar de se terem verificado certas limitações, na predição em alguns casos particulares, de um modo geral, considera-se que os resultados obtidos permitiram concluir que as redes neuronais modeladas apresentam boa capacidade de generalização na imitação do processo anaeróbio. Conclui-se, portanto, que o estudo realizado pode constituir um contributo com interesse para a otimização da produção do biogás na DA de ETAR Sul da SIMRIA e que a utilização de RNA poderá ser uma ferramenta a explorar, quer nessa área, quer noutras áreas de gestão de sistemas de saneamento básico.
Resumo:
Several standards appeared in recent years to formalize the metadata of learning objects, but they are still insufficient to fully describe a specialized domain. In particular, the programming exercise domain requires interdependent resources (e.g. test cases, solution programs, exercise description) usually processed by different services in the programming exercise life-cycle. Moreover, the manual creation of these resources is time-consuming and error-prone leading to what is an obstacle to the fast development of programming exercises of good quality. This paper focuses on the definition of an XML dialect called PExIL (Programming Exercises Interoperability Language). The aim of PExIL is to consolidate all the data required in the programming exercise life-cycle, from when it is created to when it is graded, covering also the resolution, the evaluation and the feedback. We introduce the XML Schema used to formalize the relevant data of the programming exercise life-cycle. The validation of this approach is made through the evaluation of the usefulness and expressiveness of the PExIL definition. In the former we present the tools that consume the PExIL definition to automatically generate the specialized resources. In the latter we use the PExIL definition to capture all the constraints of a set of programming exercises stored in a learning objects repository.
Resumo:
Fragmentation on dynamically reconfigurable FPGAs is a major obstacle to the efficient management of the logic space in reconfigurable systems. When resource allocation decisions have to be made at run-time a rearrangement may be necessary to release enough contiguous resources to implement incoming functions. The feasibility of run-time relocation depends on the processing time required to set up rearrangements. Moreover, the performance of the relocated functions should not be affected by this process or otherwise the whole system performance, and even its operation, may be at risk. Relocation should take into account not only specific functional issues, but also the FPGA architecture, since these two aspects are normally intertwined. A simple and fast method to assess performance degradation of a function during relocation and to speed up the defragmentation process, based on previous function labelling and on the application of the Euclidian distance concept, is proposed in this paper.
Resumo:
Several standards have appeared in recent years to formalize the metadata of learning objects, but they are still insufficient to fully describe a specialized domain. In particular, the programming exercise domain requires interdependent resources (e.g. test cases, solution programs, exercise description) usually processed by different services in the programming exercise lifecycle. Moreover, the manual creation of these resources is time-consuming and error-prone, leading to an obstacle to the fast development of programming exercises of good quality. This chapter focuses on the definition of an XML dialect called PExIL (Programming Exercises Interoperability Language). The aim of PExIL is to consolidate all the data required in the programming exercise lifecycle from when it is created to when it is graded, covering also the resolution, the evaluation, and the feedback. The authors introduce the XML Schema used to formalize the relevant data of the programming exercise lifecycle. The validation of this approach is made through the evaluation of the usefulness and expressiveness of the PExIL definition. In the former, the authors present the tools that consume the PExIL definition to automatically generate the specialized resources. In the latter, they use the PExIL definition to capture all the constraints of a set of programming exercises stored in a learning objects repository.
Resumo:
Relatório da Prática Profissional Supervisionada Mestrado em Educação Pré-Escolar
Resumo:
Relatório de Estágio apresentado ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Logística Orientadores do Instituto: Professor Doutor Luís Barreto e Mestre Jonas Lima Orientador da empresa: Engenheiro Vítor Carvalho
Resumo:
Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Auditoria, sob orientação de Mestre Adalmiro Álvaro Malheiro de Castro Andrade Pereira
Resumo:
This project aims to study the implementation of Lean principles and tools in several levels of logistics, from internal logistics to interface with distribution center and suppliers, in an industrial plant. The main focus of all efforts is to create the conditions to approach the continuous flow scenario in the manufacturing processes. The subject of improvement actions is a company whose core activity is car seat production, more specifically the car seat cover production and assembly. This focuses the assembly process, which requires the usage of a considerable variety of components and therefore is an important obstacle to the implementation of continuous flow. The most salient issues are related with inefficient interaction between sections and late supply of components in assembly lines, forcing the operator to abandon his work station and leading to production interruption. As an operational methodology, actions from Lean philosophy and optimization were implemented according to project management principles.
Resumo:
The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.
Resumo:
Numa Estação de Tratamento de Águas Residuais (ETAR), são elevados os custos não só de tratamento das águas residuais como também de manutenção dos equipamentos lá existentes, nesse sentido procura-se utilizar processos capazes de transformar os resíduos em produtos úteis. A Digestão Anaeróbia (DA) é um processo atualmente disponível capaz de contribuir para a redução da poluição ambiental e ao mesmo tempo de valorizar os subprodutos gerados. Durante o processo de DA é produzido um gás, o biogás, que pode ser utilizado como fonte de energia, reduzindo assim a dependência energética da ETAR e a emissão de gases com efeito de estufa para a atmosfera. A otimização do processo de DA das lamas é essencial para o aumento da produção de biogás, mas a complexidade do processo constitui um obstáculo à sua otimização. Neste trabalho, aplicaram-se Redes Neuronais Artificiais (RNA) ao processo de DA de lamas de ETAR. RNA são modelos simplificados inspirados no funcionamento das células neuronais humanas e que adquirem conhecimento através da experiência. Quando a RNA é criada e treinada, produz valores de output aproximadamente corretos para os inputs fornecidos. Foi esse o motivo para recorrer a RNA na otimização da produção de biogás no digestor I da ETAR Norte da SIMRIA, usando o programa NeuralToolsTM da PalisadeTM para desenvolvimento das RNA. Para tal, efetuou-se uma análise e tratamento de dados referentes aos últimos quatro anos de funcionamento do digestor. Os resultados obtidos permitiram concluir que as RNA modeladas apresentam boa capacidade de generalização do processo de DA. Considera-se que este caso de estudo é promissor, fornecendo uma boa base para o desenvolvimento de modelos eventualmente mais gerais de RNA que, aplicado conjuntamente com as características de funcionamento de um digestor e o processo de DA, permitirá otimizar a produção de biogás em ETAR.
Resumo:
RESUMO - Enquadramento/objectivos: Apesar do elevado nível de comprometimento em estratégias eficazes para o controlo da tuberculose, em todo o mundo, esta constitui ainda um sério problema de Saúde Pública, com uma estimativa global de 9,4milhões de casos novos em 2008 e 1,8milhões de mortes/ano. O reduzido conhecimento das barreiras e facilitadores para o sucesso terapêutico constitui um importante obstáculo na procura de soluções eficazes de melhoramento da qualidade dos programas de controlo da tuberculose. Este estudo procura contribuir para a identificação atempada de doentes com perfis preditivos de insucesso terapêutico, através da identificação inicial de potenciais determinantes do resultado, com base num modelo epidemiológico e estatístico. Métodos: Foi desenvolvido um estudo de caso-controlo para a população de casos notificados ao Programa Nacional de Controlo da Tuberculose (n=24491), entre 2000-2007. Os factores preditivos de insucesso terapêutico foram identificados na análise bivariada e multivariada, com um nível de significância de 5%; a regressão logística foi utilizada para estimar a odds ratio de insucesso terapêutico, em comparação com o sucesso terapêutico, para diversos factores identificados na literatura, e para os quais os dados se encontravam disponíveis. Resultados: A dependência alcoólica (OR=2,889), o país de origem (OR=3,910), a situação sem-abrigo (OR=3.919), a co-infecção pelo VIH (OR=5,173), a interrupção (OR=60.615) ou falha terapêutica no tratamento anterior (OR=67.345) e a duração do tratamento inferior a 165 dias (OR=1930,133) foram identificados como factores preditivos de insucesso terapêutico. A duração do tratamento inferior a 165 dias provou ser o mais importante determinante do resultado terapêutico. Conclusões: Os resultados sugerem que um doente imigrante, em situação de sem-abrigo, dependente alcoólico, com tratamentos anteriores para a tuberculose e co-infectado pelo VIH apresenta uma elevada probabilidade de insucesso terapêutico. Assim, deverão ser definidas estratégias específicas, centradas no doente por forma a impedir este resultado. A base de dados (SVIG-TB), provou ser uma ferramenta de qualidade para a investigação sobre diversos aspectos do controlo da tuberculose. ------------------------------- ABSTRACT - Background/Objective: Despite the high commitment in good strategies for tuberculosis control worldwide, this is still a serious Public Health problem, with global estimates of 9,4million new cases in 2008 and 1,8million deaths/year. The poor understanding of the barriers and facilitators to treatment success is a major obstacle to find effective solutions to improve the quality of tuberculosis programs. This study tries to contribute to the timely identification of patients with predictive profiles of unsuccessful treatment outcomes, through the initial identification of characteristics probably affecting treatment outcome, found on the basis of an epidemiological and statistical model. Methods: A case-control study was conducted for the population of cases notified to the National Program for Tuberculosis Control (n=24 491), between 2000-2007. Predictive factors for unsuccessful outcome were assessed in a bivariate and multivariate analysis, using a significance level of 5%; a logistic regression was used to estimate the odds-ratio of unsuccessful, as compared to successful outcome, for several factors identified in the literature and to which data was available. Results: Alcohol abuse (OR=2,889), patient´s foreign origin (OR=3,910), homelessness (OR=3,919), HIV co-infection (OR=5,173), interruption (OR=60,615) or unsuccessful outcome in the previous treatment (OR=67,345) and treatment duration below 165 days (OR=1930,133) were identified as predictive of unsuccessful outcomes. A low treatment duration proved to be the most powerful factor affecting treatment outcome. Conclusions: Results suggest that a foreign-born patient, alcohol abuser, who has had a previous treatment for tuberculosis and is co-infected with HIV is very likely to have an unsuccessful outcome. Therefore, specific, patient-centered strategies should be taken to prevent an unsuccessful outcome. The database (SVIG-TB), has proved to be a quality tool on research of various aspects of tuberculosis control.
Resumo:
Dissertação apresentada para obtenção do Grau de Doutor em Ciências do Ambiente, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
No âmbito do desenvolvimento da dissertação do Mestrado de Engenharia Eletrotécnica – Sistemas Elétricos de Energia, surgiu a oportunidade de participar no desenvolvimento de um projeto integrante numa subestação de energia. O presente caso de estudo tem em vista a resolução de condicionantes na conceção desta subestação, tais como cumprir requisitos estéticos projetando todo o tipo de equipamentos dentro de edifícios, a ventilação das salas de transformação assim como insonorização de todo o ruído produzido de forma a cumprir os limites legais e não perturbar a vizinhança. A presente subestação de energia está situada numa zona urbana da cidade de Leiria, localidade de Parceiros, dando origem ao nome Subestação de Energia de Parceiros. Esta subestação pertence ao cliente Energias de Portugal, conhecida como EDP, e visa o melhoramento da distribuição do serviço eléctrico. As tradicionais subestações de energia, com aparência bastante desenquadrada dos meios urbanos, representam um entrave ao nível da aproximação destes centros de produção energética às zonas urbanas, comprometendo a melhoria da rede elétrica. Desta forma, foi implementada a tecnologia Gas-Insolated Switchgear e permite o enquadramento destes centros energéticos em zonas urbanas, constituindo mais um edifício urbano na zona onde se insere. Esta substitui os convencionais barramentos existentes nos Parques Exteriores de Aparelhagem das subestações e apresenta-se com dimensões muito reduzidas quando comparadas com as estruturas instaladas nestes parques. Dado que esta tecnologia é desenvolvida no sentido de permitir a construção destes centros energéticos em zonas urbanas, podem ser alojadas dentro de edifícios produzindo assim vantagens ao nível estético, não perturbando a paisagem. Dado que os principais equipamentos de funcionamento na subestação de Parceiros, nomeadamente o Transformador de Potência, se encontram instalados num edifício completamente fechado, foram construídas duas salas de ventilação, na parte superior deste edifício, cada uma adjacente a uma sala de transformação. O transformador instalado possui elevadas dimensões, pesando 53000 kg e contendo 11000 kg de óleo que em estado normal de funcionamento circula por quase todo o interior da máquina a elevadas temperaturas, provocando um aquecimento elevado no interior do edifício o que condiciona o bom funcionamento do transformador. Para ultrapassar esta condicionante foi realizado um estudo de um sistema de ventilação capaz de avaliar e controlar os valores térmicos existentes e proceder à circulação de ar, que será movimentado ou bloqueado, recorrendo a um sistema autónomo, mantendo a temperatura ideal nas salas de transformação. Este autómato é o cérebro de toda a cadeia lógica que, mediante as leituras efetuadas irá dar ordens de atuação aos diversos equipamentos. Apesar dos TP estarem protegidos dentro do edifício, estes produzem um maior ruído. A necessidade da existência do referido sistema de ventilação das divisões de funcionamento destas máquinas, implica a utilização de aparelhos que, apesar da sua evolução tecnológica os torna cada vez menos ruidosos, mas geram sempre alguma perturbação, o que pode representar um problema no cumprimento do regulamento geral do ruído.
Resumo:
RESUMO - Nos últimos anos, as catástrofes naturais têm sido a causa frequente de problemas de Saúde Pública; além disso representam um sério obstáculo ao desenvolvimento das comunidades atingidas, na medida em que consomem ponderáveis recursos para a mitigação dos danos sofridos. Pode-se dizer que não existe nenhum país que não esteja exposto ao risco de catástrofes naturais, tais como Sismos, Tsunamis, Erupções Vulcânicas, Movimentos de Vertentes, Ciclones Tropicais, Ondas de Frio e de Calor, Secas e Inundações, e como tal, este é um problema global emergente. Como, actualmente, é impossível prever e controlar a ocorrência destes fenómenos, as acções humanas têm de ser direccionadas para a implementação de soluções que possam mitigar e/ou prevenir o seu impacto na sociedade. A integração do lugar, do espaço e do tempo na Saúde Pública, como componentes de investigação relativas aos problemas da população, são uma ferramenta metodológica importante no auxílio do planeamento, monitorização e avaliação das acções em saúde. O que está em causa neste estudo é o pensar, o preparar e o adaptar os nossos territórios e populações a cenários de crise que podem aparecer sem aviso prévio. Este trabalho é, sobretudo, uma forma de pensar e planear o futuro numa lógica de adaptação e valorização do território, construindo referenciais de suporte à acção. Assim, a finalidade deste estudo é contribuir para melhorar/aperfeiçoar a resposta perante novas situações de catástrofe natural, através da percepção e caracterização de situações anteriores de catástrofes naturais a que a Ilha de São Miguel, nos Açores, esteve sujeita nos últimos vinte e seis anos, através da construção e análise de cartas de localização de risco, caracterização da população em risco e da avaliação dos respectivos Planos de Emergência. ---------------------- ABSTRACT - In the last years, the natural disasters have been the frequent cause of Public Health problems and additionally they represent a serious obstacle to the development of the communities affected, in so far as they consume ponderable resources to the mitigation of the damages. It is possible to be said that there is not any country that is not exposed to the risk of natural disasters such as earthquakes, tsunamis, volcanic eruptions, landslides, tropical cyclones, waves of heat and coldness, droughts and floods, and as such, this is an emerging global problem. As it is now impossible to predict and control the occurrence of these phenomena, human actions must be directed to implement solutions that can mitigate and / or prevent their impact on society. The integration of place, space and time on Public Health, as part of research on problems of the population, are an important methodological tool to aid planning, monitoring and evaluation of activities in health. The main issue in this study is to think, prepare and adapt our territories and populations to crisis scenarios that may occur without notice. This work is mainly a way of thinking and planning ahead in a logic of adapting and improving the area, building frameworks to support the action. Thus, the purpose of this study is to contribute to improve / optimize the answer for new natural disaster situations, through the perception and characterization of previous situations of natural catastrophes that the Island of São Miguel, in the Azores, has been subject in the last twenty six years, through the construction and analysis of risk maps, characterization of the population in risk and of the evaluation of the respective Plans of Emergence.
Resumo:
RESUMO: O absentismo à actividade profissional devido à condição de Dor Lombar apresenta-se como um problema de saúde pública com elevados custos económicos nas sociedades ocidentais. É estimado que cerca de 20% a 47% dos utentes com Dor Lombar não retornam à sua actividade profissional no período de 3 meses, sendo responsáveis por 75% a 90% de todos os custos e baixas médicas associadas à condição. Objectivo: O objectivo deste estudo foi analisar a capacidade de retorno à actividade profissional em utentes com Dor Crónica Lombar (DCL), que procuraram a Fisioterapia em situação de agudização dos seus sintomas, e averiguar a sua relação com os níveis de Incapacidade auto-reportados. Secundariamente pretendemos avaliar a influência das Crenças de medo-evitamento, nos níveis de Incapacidade auto-reportados. Metodologia: Foi efectuado um estudo correlacional prospectivo no qual se observou uma amostra de 56 utentes com DCL que tivessem apresentado novos episódios de agudização dos seus sintomas. Após 3 meses de follow-up (n=42) foi avaliado o “regresso ao trabalho em boas condições” e a sua relação com os níveis de Incapacidade iniciais, bem como o contributo das Crenças de medo-evitamento para essa Incapacidade funcional. Resultados: Foi verificada uma correlação negativa entre os níveis de Incapacidade funcional e o Sucesso no “regresso ao trabalho em boas condições” (ρ = -0.369; p =0.016), sendo que os scores mais elevados da Incapacidade correspondem à Falha nesse regresso. Verificámos também uma correlação positiva entre a existência das Crenças de medo-evitamento relativas ao Trabalho e a Incapacidade (r =0.511; p =0,001), apresentando estas Crenças um valor preditivo (β= 0.533; p =0.001) na Incapacidade auto-reportada. Conclusões: A capacidade de retorno à actividade profissional nos utentes com DCL, após um novo episódio de agudização dos seus sintomas, está relacionada com níveis de Incapacidade funcional. Os factores psicossociais, nomeadamente as Crenças de medo-evitamento relativas ao Trabalho apresentam um valor preditivo para essa Incapacidade auto-reportada.------------------------------ABSTRACT:Work-absenteeism due to the condition of Low Back Pain (LBP) presents itself as a public health problem with high economic costs in Western societies. It is estimated that 20% to 47% of patients with LBP not returned to their work-activity in period of 3 months, accounting for 75% to 90% of all medical costs and sickness compensation associated. Objective: The aim of the present study was to assess the ability to return to work on patients with chronic LBP, who searched for physical therapy in a situation of worsening of their symptoms, and examine their relationship with levels of self-reported disability. Secondly we intend to evaluate the influence of fear-avoidance beliefs to the levels of self-reported disability. Methods: We conducted a prospective cross-sectional study in which we observed 56 patients chronic LBP with new episodes of exacerbation of their symptoms. After a 3 months follow-up (n = 42) we evaluated the “return to work in good health” and its relationship with initial levels of disability and the contribution of fear-avoidance beliefs for that disability. Results: There was a negative correlation between levels of disability and “return to work in good health” success (ρ = -0.369, p = 0.016), with the highest scores correspond to the failure in the work-return. We also found a positive correlation between the existence of fear-avoidance beliefs for work and disability (r = 0.511; p = 0.001), with a predictive value of these fear-avoidance beliefs (β = 0.533; p = 0.001) in self-reported disability. Conclusions: The ability to return to work in chronic LBP patients, after a new episode of exacerbation of symptoms is related to the levels of functional disability. Psychosocial factors, including fear-avoidance beliefs for work showed a predictive value for the self-reported disability.