954 resultados para Chiropractic Manipulation
Resumo:
Introdução: As teorias etiológicas recíprocas que relacionam as disfunções da articulação temporo mandibular (ATM) com as disfunções da coluna cervical, os seus critérios de diagnóstico e formas de tratamento, não reúnem consenso, constituindo, actualmente, uma temática de debate e investigação. Objectivo: Descrever a avaliação e intervenção em fisioterapia, e os seus resultados numa utente com disfunção do complexo crânio-cervico-mandibular. Métodos: Foi realizado um estudo observacional descritivo, do tipo estudo de caso, reportando-se a uma enfermeira, de 28 anos, com quadro sintomatológico compatível com disfunção crânio-cervico-mandibular, com antecedentes de condilectomia e artroplastia da ATM, aos 14 anos. Inicialmente a utente apresentava dor irradiada na região cervical (7/10) e limitação dos movimentos articulares da coluna cervical. Referia, também, dor na região do ptérion direito (6/10), limitação dos movimentos da mandíbula, desvio lateral na abertura da boca e dificuldades funcionais na mastigação. A avaliação inicial e final (após tratamento), foi efectuada recorrendo-se à utilização do Goniometro CROM e da Therabite Range of Motion Scale, para medição das amplitudes articulares da cervical e ATM, respectivamente; Estetoscópio, para avaliação dos sons articulares da ATM; Escala Visual Analógica para graduação da dor. A intervenção decorreu ao longo de 10 sessões, bissemanais. No tratamento, foram aplicadas técnicas sobre os trigers points da musculatura cervical e músculos da mastigação; Mobilização passiva da cervical e ATM; Manipulação dos segmentos vertebrais cervicais e torácicos; Streching e técnicas de energia muscular; Técnicas funcionais para a ATM; Técnicas miofasciais para a coluna cervical e ATM; Exercícios de controlo motor da coluna cervical. Resultados: No final do tratamento, as amplitudes dos movimentos cervicais estavam completas e sem dor (0/10), mantendo, sensibilidade dolorosa à palpação das espinhosas de C5-C6 (1/10). Relativamente à ATM, verifica-se a abolição da dor (0/10) e a ausência do desvio lateral da mandíbula na abertura da boca, bem como, o aumento das amplitudes de movimento na abertura da boca (33 para 36 mm), e no desvio lateral esquerdo (2 para 2,8 mm). Conclusão: os resultados sugerem que a intervenção, com recurso a técnicas de terapia manual, no caso em estudo, parecem surtir efeitos positivos no quadro sintomatológico e funcional da utente.
Resumo:
The basic function of the human hand is the manipulation and grasping of various objects in all daily activities, including work activities. This is greatly influenced by strength and manual dexterity. However age, gender and other contexts such as work or leisure activities could influence strength. Handgrip strength, a measure of maximum voluntary force of the hand, has proved to be reliable and valid as an objective parameter to evaluate the functional integrity of the hand as part of the musculoskeletal system. It correlates highly with strength in other muscular groups and is therefore considered as a good indicator of overall muscular strength and functional stress and could be used as a predictor of physical disability. Handgrip strength assessment is simple and reliable and used commonly by several investigators and health professionals, in different contexts (medical, nutritional, rehabilitation, professional settings, engineering, etc.) and with different purposes (research, diagnostic, assessment, etc.). In clinical and rehabilitation settings is of vital importance in the determination of effectiveness of several interventions and for monitoring evolution of diseases. Various ways (methods, techniques and equipments) of collecting information on grip strength have been reported. This chapter will review basic concepts on handgrip function, methodologies of assessment, contexts of application and correlates, such as physical activity, health or nutritional status. Several populations and reference values as also the relationships between handgrip and clinical status, aging, risk of disability and diseases, will be discussed.
Resumo:
Mestrado (PES II), Educação Pré-Escolar e Ensino do 1º Ciclo do Ensino Básico, 17 de Junho de 2015, Universidade dos Açores.
Resumo:
A verificação das Características Garantidas associadas aos equipamentos, em especial dos aerogeradores, incluídos no fornecimento de Parques Eólicos, reveste-se de particular importância devido, principalmente, ao grande volume de investimento em jogo, ao longo período necessário ao retorno do mesmo, à incerteza quanto à manutenção futura das actuais condições de remuneração da energia eléctrica produzida e ainda à falta de dados históricos sobre o período de vida útil esperado para os aerogeradores. Em face do exposto, é usual serem exigidas aos fornecedores, garantias do bom desempenho dos equipamentos, associadas a eventuais penalidades, quer para o período de garantia, quer para o restante período de vida útil, de modo a minimizar o risco associado ao investimento. No fornecimento de Parques Eólicos existem usualmente três tipos de garantias, nomeadamente, garantia de Curva de Potência dos aerogeradores, garantia de Disponibilidade dos equipamentos ou garantia de Produção de Energia. Estas poderão existir isoladamente ou em combinação, dependendo das condições contratuais acordadas entre o Adjudicatário e o Fornecedor. O grau de complexidade e/ou trabalho na implementação das mesmas é variável, não sendo possível afirmar qual delas é a mais conveniente para o Adjudicatário, nem qual a mais exacta em termos de resultados. Estas dúvidas surgem em consequência das dificuldades inerentes à recolha dos próprios dados e também da relativamente ampla margem de rearranjo dos resultados permitido pelas normas existentes, possibilitando a introdução de certo tipo de manipulações nos dados (rejeições e correlações), as quais podem afectar de forma considerável as incertezas dos resultados finais dos ensaios. Este trabalho, consistiu no desenvolvimento, execução, ensaio e implementação de uma ferramenta informática capaz de detectar de uma forma simples e expedita eventuais desvios à capacidade de produção esperada para os aerogeradores, em função do recurso verificado num dado período. Pretende ser uma ferramenta manuseável por qualquer operador de supervisão, com utilização para efeitos de reparações e correcção de defeitos, não constituindo contudo uma alternativa a outros processos abrangidos por normas, no caso de aplicação de penalidades. Para o seu funcionamento, são utilizados os dados mensais recolhidos pela torre meteorológica permanente instalada no parque e os dados de funcionamento dos aerogeradores, recolhidos pelo sistema SCADA. Estes são recolhidos remotamente sob a forma de tabelas e colocados numa directoria própria, na qual serão posteriormente lidos pela ferramenta.
Resumo:
OBJECTIVE: To evaluate dispersal of Aedes aegypti females in an area with no container manipulation and no geographic barriers to constrain mosquito flight. METHODS: A mark-release-recapture experiment was conducted in December 2006, in the dengue endemic urban district of Olaria in Rio de Janeiro, Southeastern Brazil, where there is no evident obstacle to the dispersal of Ae. aegypti females. Mosquito traps were installed in 192 houses (96 Adultraps and 96 MosquiTRAPs). RESULTS: A total of 725 dust-marked gravid females were released and recapture rate was 6.3%. Ae. aegypti females traveled a mean distance of 288.12 m and their maximum displacement was 690 m; 50% and 90% of females flew up to 350 m and 500.2 m, respectively. CONCLUSIONS: Dispersal of Ae. aegypti females in Olaria was higher than in areas with physical and geographical barriers. There was no evidence of a preferred direction during mosquito flight, which was considered random or uniform from the release point.
Resumo:
Esta tese pretende desenvolver o estudo de um padrão que utiliza um modelo de implementação fundamentado na natureza das operações que um sistema pretende executar. Estas operações são distinguidas pelo que realizam, portanto um sistema poderá ser dividido em duas grandes áreas: uma, de leitura de dados, e outra, de manipulação de dados. A maior parte dos sistemas atuais está a progredir, com o objetivo de conseguir suportar muitos utilizadores em simultâneo, e é neste aspeto que este padrão se diferencia porque vai permitir escalar, com muita facilidade e sem sobrecarga. Além disso, este estudo deverá facultar um conjunto de boas práticas e incidir sobre o facto de se pretender desenhar um sistema de raiz e não apenas em “migrar” de um sistema já existente. Ao estudar este padrão é essencial estudar e analisar a evolução da utilização futura dos sistemas, para determinar a utilidade e a aplicação crescente ou não, deste padrão. Interessa também saber, quem implementa atualmente este padrão, em que tipo de produtos, e enaltecer o seu sucesso de implementação, estimulando o desenvolvimento da sua utilização. Finalmente, demonstra-se a aplicabilidade e validade do padrão proposto, através de uma implementação modelo, com a ajuda de uma framework de forma a determinar quais as ferramentas existentes que possam ser úteis e contribuir para a implementação deste padrão. O objetivo final será demonstrar os principais componentes do sistema, como poderá prosseguir a sua evolução e como poderá ser melhorada e simplificada a comunicação entre os seus componentes, para uma utilização mais fácil, frequente e de interesse comum para todos: utilizadores e administradores.
Resumo:
Nanotechnology is an important emerging industry with a projected annual market of around one trillion dollars by 2015. It involves the control of atoms and molecules to create new materials with a variety of useful functions. Although there are advantages on the utilization of these nano-scale materials, questions related with its impact over the environment and human health must be addressed too, so that potential risks can be limited at early stages of development. At this time, occupational health risks associated with manufacturing and use of nanoparticles are not yet clearly understood. However, workers may be exposed to nanoparticles through inhalation at levels that can greatly exceed ambient concentrations. Current workplace exposure limits are based on particle mass, but this criteria could not be adequate in this case as nanoparticles are characterized by very large surface area, which has been pointed out as the distinctive characteristic that could even turn out an inert substance into another substance exhibiting very different interactions with biological fluids and cells. Therefore, it seems that, when assessing human exposure based on the mass concentration of particles, which is widely adopted for particles over 1 μm, would not work in this particular case. In fact, nanoparticles have far more surface area for the equivalent mass of larger particles, which increases the chance they may react with body tissues. Thus, it has been claimed that surface area should be used for nanoparticle exposure and dosing. As a result, assessing exposure based on the measurement of particle surface area is of increasing interest. It is well known that lung deposition is the most efficient way for airborne particles to enter the body and cause adverse health effects. If nanoparticles can deposit in the lung and remain there, have an active surface chemistry and interact with the body, then, there is potential for exposure. It was showed that surface area plays an important role in the toxicity of nanoparticles and this is the metric that best correlates with particle-induced adverse health effects. The potential for adverse health effects seems to be directly proportional to particle surface area. The objective of the study is to identify and validate methods and tools for measuring nanoparticles during production, manipulation and use of nanomaterials.
Resumo:
Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.
Resumo:
A navegação e a interpretação do meio envolvente por veículos autónomos em ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas robóticos é o da aquisição de um modelo espacial do meio envolvente do robô. Neste contexto, a integração de sistemas sensoriais em plataformas robóticas, que permitam a construção de mapas do mundo que as rodeia é de extrema importância. A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade em tarefas de localização, navegação e manipulação de objectos. Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos, para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas através de cortes transversais 2D, no caso dos rangefinders. O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e o subsequente lançamento da Kinect, pela Microsoft R para a Xbox 360 no final de 2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas. Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library [RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase ao processamento de nuvens de pontos de n dimensões adquiridas a partir de câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo. Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns dos módulos e métodos constituintes da biblioteca PCL, para a resolução de problemas inerentes à construção e interpretação de mapas, em ambientes indoor não estruturados, utilizando os dados provenientes da Kinect. A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num modelo global consistente. Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade, para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados práticos obtidos, da implementação da arquitectura de sistema proposta, que apresenta resultados de desempenho interessantes, como também boas perspectivas de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA).
Resumo:
Tese de doutoramento em Ciências da Educação, área de Teoria Curricular e Ensino das Ciências
Resumo:
The definition and programming of distributed applications has become a major research issue due to the increasing availability of (large scale) distributed platforms and the requirements posed by the economical globalization. However, such a task requires a huge effort due to the complexity of the distributed environments: large amount of users may communicate and share information across different authority domains; moreover, the “execution environment” or “computations” are dynamic since the number of users and the computational infrastructure change in time. Grid environments, in particular, promise to be an answer to deal with such complexity, by providing high performance execution support to large amount of users, and resource sharing across different organizations. Nevertheless, programming in Grid environments is still a difficult task. There is a lack of high level programming paradigms and support tools that may guide the application developer and allow reusability of state-of-the-art solutions. Specifically, the main goal of the work presented in this thesis is to contribute to the simplification of the development cycle of applications for Grid environments by bringing structure and flexibility to three stages of that cycle through a commonmodel. The stages are: the design phase, the execution phase, and the reconfiguration phase. The common model is based on the manipulation of patterns through pattern operators, and the division of both patterns and operators into two categories, namely structural and behavioural. Moreover, both structural and behavioural patterns are first class entities at each of the aforesaid stages. At the design phase, patterns can be manipulated like other first class entities such as components. This allows a more structured way to build applications by reusing and composing state-of-the-art patterns. At the execution phase, patterns are units of execution control: it is possible, for example, to start or stop and to resume the execution of a pattern as a single entity. At the reconfiguration phase, patterns can also be manipulated as single entities with the additional advantage that it is possible to perform a structural reconfiguration while keeping some of the behavioural constraints, and vice-versa. For example, it is possible to replace a behavioural pattern, which was applied to some structural pattern, with another behavioural pattern. In this thesis, besides the proposal of the methodology for distributed application development, as sketched above, a definition of a relevant set of pattern operators was made. The methodology and the expressivity of the pattern operators were assessed through the development of several representative distributed applications. To support this validation, a prototype was designed and implemented, encompassing some relevant patterns and a significant part of the patterns operators defined. This prototype was based in the Triana environment; Triana supports the development and deployment of distributed applications in the Grid through a dataflow-based programming model. Additionally, this thesis also presents the analysis of a mapping of some operators for execution control onto the Distributed Resource Management Application API (DRMAA). This assessment confirmed the suitability of the proposed model, as well as the generality and flexibility of the defined pattern operators
Resumo:
Doctoral Thesis in Information Systems and Technologies Area of Engineering and Manag ement Information Systems
Resumo:
The control of a crane carrying its payload by an elastic string corresponds to a task in which precise, indirect control of a subsystem dynamically coupled to a directly controllable subsystem is needed. This task is interesting since the coupled degree of freedom has little damping and it is apt to keep swinging accordingly. The traditional approaches apply the input shaping technology to assist the human operator responsible for the manipulation task. In the present paper a novel adaptive approach applying fixed point transformations based iterations having local basin of attraction is proposed to simultaneously tackle the problems originating from the imprecise dynamic model available for the system to be controlled and the swinging problem, too. The most important phenomenological properties of this approach are also discussed. The control considers the 4th time-derivative of the trajectory of the payload. The operation of the proposed control is illustrated via simulation results.
Resumo:
Mestrado em Engenharia Informática - Área de Especialização em Sistemas Gráficos e Multimédia
Resumo:
XML Schema is one of the most used specifications for defining types of XML documents. It provides an extensive set of primitive data types, ways to extend and reuse definitions and an XML syntax that simplifies automatic manipulation. However, many features that make XML Schema Definitions (XSD) so interesting also make them rather cumbersome to read. Several tools to visualize and browse schema definitions have been proposed to cope with this issue. The novel approach proposed in this paper is to base XSD visualization and navigation on the XML document itself, using solely the web browser, without requiring a pre-processing step or an intermediate representation. We present the design and implementation of a web-based XML Schema browser called schem@Doc that operates over the XSD file itself. With this approach, XSD visualization is synchronized with the source file and always reflects its current state. This tool fits well in the schema development process and is easy to integrate in web repositories containing large numbers of XSD files.