73 resultados para Pre-processing step
Resumo:
Objectives To evaluate the feasibility and acceptability of an exergame intervention as a tool to promote physical activity in outpatients with schizophrenia. Design Feasibility/Acceptability Study and Quasi-Experimental Trial. Method Sixteen outpatients with schizophrenia received treatment as usual and they all completed an 8-week exergame intervention using Microsoft Kinect® (20 min sessions, biweekly). Participants completed pre and post treatment assessments regarding functional mobility (Timed Up and Go Test), functional fitness performance (Senior Fitness Test), motor neurological soft signs (Brief Motor Scale), hand grip strength (digital dynamometer), static balance (force plate), speed of processing (Trail Making Test), schizophrenia-related symptoms (Positive and Negative Syndrome Scale) and functioning (Personal and Social Performance Scale). The EG group completed an acceptability questionnaire after the intervention. Results Attrition rate was 18.75% and 69.23% of the participants completed the intervention within the proposed schedule. Baseline clinical traits were not related to game performance indicators. Over 90% of the participants rated the intervention as satisfactory and interactive. Most participants (76.9%) agreed that this intervention promotes healthier lifestyles and is an acceptable alternative to perform physical activity. Repeated-measures MANOVA analyses found no significant multivariate effects for combined outcomes. Conclusion This study established the feasibility and acceptability of an exergame intervention for outpatients with schizophrenia. The intervention proved to be an appealing alternative to physical activity. Future trials should include larger sample sizes, explore patients' adherence to home-based exergames and consider greater intervention dosage (length, session duration, and/or frequency) in order to achieve potential effects.
Resumo:
Most energy spent in walking is due to step-to-step transitions. During this phase, the interlimb coordination assumes a crucial role to meet the demands of postural and movement control. The authors review studies that have been carried out regarding the interlimb coordination during gait, as well as the basic biomechanical and neurophysiological principles of interlimb coordination. The knowledge gathered from these studies is useful for understanding step-to-step transition during gait from a motor control perspective and for interpreting walking impairments and inefficiency related to pathologies, such as stroke. This review shows that unimpaired walking is characterized by a consistent and reciprocal interlimb influence that is supported by biomechanical models, and spinal and supraspinal mechanisms. This interlimb coordination is perturbed in subjects with stroke.
Resumo:
In this paper we study several natural and man-made complex phenomena in the perspective of dynamical systems. For each class of phenomena, the system outputs are time-series records obtained in identical conditions. The time-series are viewed as manifestations of the system behavior and are processed for analyzing the system dynamics. First, we use the Fourier transform to process the data and we approximate the amplitude spectra by means of power law functions. We interpret the power law parameters as a phenomenological signature of the system dynamics. Second, we adopt the techniques of non-hierarchical clustering and multidimensional scaling to visualize hidden relationships between the complex phenomena. Third, we propose a vector field based analogy to interpret the patterns unveiled by the PL parameters.
Resumo:
Objective Public health organizations recommend that preschool-aged children accumulate at least 3 h of physical activity (PA) daily. Objective monitoring using pedometers offers an opportunity to measure preschooler's PA and assess compliance with this recommendation. The purpose of this study was to derive step-based recommendations consistent with the 3 h PA recommendation for preschool-aged children. Method The study sample comprised 916 preschool-aged children, aged 3 to 6 years (mean age = 5.0 ± 0.8 years). Children were recruited from kindergartens located in Portugal, between 2009 and 2013. Children wore an ActiGraph GT1M accelerometer that measured PA intensity and steps per day simultaneously over a 7-day monitoring period. Receiver operating characteristic (ROC) curve analysis was used to identify the daily step count threshold associated with meeting the daily 3 hour PA recommendation. Results A significant correlation was observed between minutes of total PA and steps per day (r = 0.76, p < 0.001). The optimal step count for ≥ 3 h of total PA was 9099 steps per day (sensitivity (90%) and specificity (66%)) with area under the ROC curve = 0.86 (95% CI: 0.84 to 0.88). Conclusion Preschool-aged children who accumulate less than 9000 steps per day may be considered Insufficiently Active.
Resumo:
The purpose of this study was to analyse differences between total physical activity (TPA) and moderate-to-vigorous PA (MVPA) of pre-school children during daily school hours when they attended the physical education class (PED) and school days without PE class (NPED) and to assess the contribution of PE classes to TPA in school hours. The sample was composed of 193 pre-school healthy children (96 girls) aged from three to five years old and was conducted between February and December of 2008. Children wore accelerometers for at least four consecutive days during school hours. Data were analysed with specific software, age-specific counts-per-minute cut-off points and a 5 s epoch were used. Independent and general linear model repeated measures were used to assess differences between gender and differences between different days within each gender, respectively. Boys engaged more MVPA than girls (P < 0.05). During PED, pre-school children engaged significantly more in TPA and MVPA than during NPED (P < 0.05). PE class contributed, on average, 27.7% for the TPA and 32.8% of daily MVPA during PED in both gender. The results of this study suggest that structured PA such as a PE class increased the daily TPA and MVPA level of pre-school children.
Resumo:
Relatório EPE - Relatório de Estágio em Educação Pré-Escolar: Para aprender a ensinar é necessário passar por diversas etapas, assim sendo, o presente relatório é o culminar de um primeiro momento de estágio, do primeiro contacto com a profissão com todas as dinâmicas e especificidades de que dela fazem parte. Pretendendo-se ser um educador reflexivo e investigador, em que o desejo de saber o porquê daquilo que observa, o leva a descobrir novas coisas e a refletir sempre sobre elas, é fulcral que se conheçam alguns pressupostos teóricos que sirvam de suporte à prática a realizar. Desta forma, é feita uma contextualização teórica em que se aborda o papel do Educador de Infância, agente tão importante na educação das crianças, uma vez que educa os cidadãos de amanhã. Ao mesmo tempo, são ainda abordados alguns tópicos pertinentes relativamente à educação de infância, como a organização do ambiente educativo, a intencionalidade educativa, assim como modelos e perspetivas teóricas que fundamentam toda a prática desenvolvida. Com a realização deste relatório, inicia-se a construção do profissional reflexivo e investigador. Neste sentido, reflete-se acerca de toda ação pedagógica desenvolvida, assim como dos aspetos que se devem melhorar no futuro e que objetivos anteriormente definidos foram já alcançados. Na certeza de que o período de prática pedagógica referenciada foi o primeiro de muitos momentos de autodescoberta e realização pessoal, espera-se que o mesmo seja capaz de transparecer toda a experiência e enriquecimento para quem o lê. Relatório EPE - Relatório de Estágio em Educação Pré-Escolar:In order to learn how to teach, one needs to follow several stages, and on that path, the present report is the final step of a first stage in the trainee program, one that marked the first contact with the teaching profession and with all its dynamics and specifics. The aim is to be a reflexive educator and researcher, one that desires to understand the reason and motive of its object, one that is led to the discovery of new things and to a reflection on them. On that line, it is important to know some theoretical concepts to support the practice. With that goal in mind, this paper is a theoretical contextualization relating to the role of the infant teacher, a very important one, as it concerns the education of future citizens. At the same time, some relevant topics are addressed in what concerns the work of the infant teacher, such as the arrangement of the educational environment, the educational intentionality, and also theoretical models and perspectives, fundamental to the developed work. With this report begins the construction of the reflexive professional and researcher. In doing so, it is a reflection on several issues, namely, on all the pedagogical actions developed throughout the stage, on the features to improve in the future, and what previously defined goals were already achieved. Without a doubt, this stage of educational action is the first of several moments of self-discovery and personal achievement. Hopefully, this report will be able to reflect all the experience and to be an enriching experience to the reader.
Resumo:
O presente trabalho tem como objetivo a otimização da etapa de fermentação dos açúcares obtidos a partir da drêche cervejeira para produção do bioetanol através da utilização das leveduras Pichia stipitis NCYC 1541 e Kluyveromyces marxianus NCYC 2791 como agentes fermentativos. O meio de cultura usado para manter as culturas destas leveduras foi Yeast Extract Peptone Dextrose (YEPD). O principal propósito deste trabalho foi o de encontrar alternativas aos combustíveis fósseis, pautando-se por soluções inofensivas para o meio ambiente e sustentáveis. Assim, o trabalho está dividido em quatro etapas: 1) caraterização química e biológica da drêche; 2) pré-tratamento ácido e hidrólise enzimática para primeiramente quebrar as moléculas de lenhina que envolvem os polímeros de celulose e hemicelulose e em seguida romper as ligações poliméricas destas macromoléculas por ação enzimática e transforma-las em açúcares simples, respetivamente, obtendo-se então a glucose, a maltose, a xilose e a arabinose; e, por último, 3) otimização da etapa de fermentação da glucose, maltose e das pentoses que constitui a condição essencial para se chegar à síntese do bioetanol de um modo eficiente e sustentável e 4) a recuperação do bioetanol produzido por destilação fracionada. A quantificação dos açúcares libertados no processo foi feita recorrendo a análises por cromatografia líquida de alta eficiência (HPLC). Neste estudo foram identificados e quantificados cinco açúcares: Arabinose, Glucose, Maltose, Ribose e Xilose. Na etapa de pré-tratamento e hidrólise enzimática foram usados os ácidos clorídrico (HCl) e nítrico (HNO3) com a concentração de 1% (m/m), e as enzimas Glucanex 100g e Ultraflo L. Foram testadas seis condições de pré-tratamento e hidrólise enzimática, alterando os parâmetros tempo de contacto e razão enzimas/massa de drêche, respetivamente, e mantendo a temperatura (50 ºC), velocidade de agitação (75 rpm) e concentração dos ácidos (1% (m/m)). No processamento de 25 g de drêche seca com 0,5 g de Glucanex, 0,5 mL de Ultraflo e um tempo de reação de 60 minutos para as enzimas foi obtida uma eficiência de 15%, em hidrolisado com 6% da celulose. Realizou-se a fermentação do hidrolisado resultante do pré-tratamento ácido e hidrólise enzimática de drêche cervejeira e de meios sintéticos preparados com os açúcares puros, usando as duas estirpes selecionadas para este estudo: Pichia stipitis NCYC 1541 e Kluyveromyces marxianus NYCY 2791. As eficiências de fermentação dos açúcares nos meios sintéticos foram superiores a 80% para ambas as leveduras. No entanto, as eficiências de fermentação do hidrolisado da drêche foram de 45,10% pela Pichia stipitis e de 36,58 para Kluyveromyces marxianus, para um tempo de fermentação de 72 horas e à temperatura de 30 °C. O rendimento teórico em álcool no hidrolisado da drêche é de 0,27 g/g, três vezes maior do que o real (0,0856 g/g), para Pichia stipitis e de 0,19 g/g seis vezes maior do que o real (0,0308 g/g), para a Kluyveromyces marxianus.
Resumo:
Os Sistemas de Gestão Técnica Centralizada (SGTC) assumem-se como essenciais nos grandes edifícios, já que permitem monitorizar, controlar, comandar e gerir, de forma facilitada, integrada e otimizada, as várias instalações existentes no edifício. O estado da arte de um SGTC baseia-se numa arquitetura distribuída, com recurso a Quadros de Gestão Técnica (QGT) que incluem Automation Servers - equipamentos nativos nos protocolos de comunicação mais comummente utilizados neste âmbito, incorporadores de funcionalidades e programações pré-definidas, e que ficarão responsáveis por integrar na sua área de influência, um conjunto de pontos de SGTC, definidos em projeto. Numa nova filosofia de instalação, integração e comunicação facilitada entre dispositivos que nos quadros elétricos geram dados relevantes para o utilizador e desencadeiam ações úteis na gestão de uma instalação, surge o novo conceito no mercado de Smart Panels, da Schneider Electric. Este sistema baseia-se numa ampla e diversa gama de possibilidades de medição e monitorização energética e da própria aparelhagem, com um sistema de comunicação com o sistema de gestão e controlo da instalação integrado no próprio quadro, dispensando assim a necessidade de um sistema externo (QGT), de recolha, comunicação e processamento de informação. Após o estudo descritivo teórico dos vários tópicos, questões e considerações relacionadas com os SGTC, os Smart Panels e a sua integração, o projeto e estudo comparativo do SGTC sem e com a integração de Smart Panels num grande centro comercial, permitiu concluir que a integração de Smart Panels num SGTC pode conferir vantagens no que diz respeito à implificação do projeto, da instalação, do comissionamento, programação, e da própria exploração da instalação elétrica, traduzindo-se numa redução dos custos normalmente elevados inerentes à mão de obra associada a todos estes processos.
Resumo:
Com a crescente preocupação em dinamizar as exportações e potenciar os seus efeitos na economia, muitos trabalhos têm tentado encontrar fatores potenciadores do sucesso das empresas no mercado internacional (dimensão, produtividade pré exportadora, idade, fase do ciclo de produção, relacionamento prévio com o exterior, etc.). Temas como a seleção natural do mercado e a aprendizagem pela exportação, são transversais e incontornáveis nos trabalhos empíricos que abordam o estudo das exportações ao nível das empresas. No entanto, não nos devemos esquecer que uma das principais motivações das empresas, é a maximização do lucro. Com efeito, uma nova onda de trabalhos tem-se voltado para a o impacto que as exportações têm sobre a rentabilidade das empresas. Utilizando um modelo de efeitos fixos com dados em painel, aplicado a uma base de dados de empresas portuguesas, com espetro temporal entre 2008 e 2012, este trabalho encontra evidências e que as exportações são um fraco potenciador da rentabilidade das empresas. Do ponto de vista da organização do presente trabalho, no primeiro capítulo será apresentada uma breve revisão de literatura enquadradora do tema; no segundo capítulo será apresentada a base de dados, tratamento e a abordagem econométrica; por último será apresentada uma conclusão, com os resultados principais do trabalho e com algumas questões que poderão ser abordadas no futuro.
Resumo:
A dissertação em apreço resultou da necessidade em otimizar os recursos técnicos, mas sobretudo humanos, afetos às verificações de instrumentos de medição, no âmbito do Controlo Metrológico Legal. Estas verificações, realizadas nos termos do cumprimento das competências outrora atribuídas à Direção de Serviços da Qualidade da então Direção Regional da Economia do Norte, eram operacionalizadas pela Divisão da Qualidade e Licenciamento, na altura dirigida pelo subscritor da presente tese, nomeadamente no que respeita aos ensaios efetuados, em laboratório, a manómetros analógicos. O objetivo principal do trabalho foi alcançado mediante o desenvolvimento de um automatismo, materializado pela construção de um protótipo, cuja aplicação ao comparador de pressão múltiplo, dantes em utilização, permitiria realizar a leitura da indicação de cada manómetro analógico através de técnicas de processamento de imagem, função esta tradicionalmente efetuada manualmente por um operador especializado. As metodologias de comando, controlo e medição desse automatismo foram realizadas através de um algoritmo implementado no software LabVIEW® da National Intruments, particularmente no que respeita ao referido processamento das imagens adquiridas por uma câmara de vídeo USB. A interface com o hardware foi concretizada recorrendo a um módulo de Aquisição de Dados Multifuncional (DAQ) USB-6212, do mesmo fabricante. Para o posicionamento horizontal e vertical da câmara de vídeo USB, recorreu-se a guias lineares acionadas por motores de passo, sendo que estes dispositivos foram igualmente empregues no acionamento do comparador de pressão. Por último, procedeu-se à aquisição digital da leitura do padrão, recorrendo à respetiva virtualização, bem como a uma aplicação desenvolvida neste projeto, designada appMAN, destinada à gestão global do referido automatismo, nomeadamente no que se refere ao cálculo do resultado da medição, erro e incerteza associada, e emissão dos respetivos documentos comprovativos.
Resumo:
Durante as últimas décadas, os materiais compósitos têm substituído com sucesso os materiais tradicionais em muitas aplicações de engenharia, muito devido às excelentes propriedades que se conseguem obter com a combinação de materiais diferentes. Nos compósitos reforçados com fibras longas ou contínuas tem-se verificado, ao longo dos últimos anos, um aumento do uso de matrizes termoplásticas, fruto de várias vantagens associadas, como o facto de serem bastante mais ecológicas, comparativamente às termoendurecíveis. No entanto, este aumento está muito dependente do desenvolvimento de novas tecnologias de processamento, pois a elevada viscosidade dos termoplásticos, comparativamente aos termoendurecíveis, dificulta significativamente o processo. Muitos equipamentos de produção de termoplásticos são resultado de adaptações de equipamentos de produção de termoendurecíveis, onde normalmente é necessário adicionar fornos de pré-aquecimento. Neste trabalho, pretendeu-se produzir pré-impregnados de fibras contínuas com matriz termoplástica, por deposição a seco de polímero em pó sobre fibras de reforço (denominados por towpreg) para, posteriormente, serem transformados por pultrusão e caracterizados. As matérias-primas utilizadas foram: Polipropileno (PP) como matriz termoplástica e fibra de carbono como reforço. Por forma a melhorar as propriedades finais do compósito, foram otimizadas as condições de processamento na produção dos towpregs, estudando-se a influência da variação dos parâmetros de processamento no teor de polímero presente nestes, tendo como objetivo teores mássicos de polímero superiores a 30%. A condição ótima e a influência dos parâmetros de processamento foram obtidas com o auxílio do Método de Taguchi. Os perfis produzidos por pultrusão foram sujeitos a ensaios de flexão, de forma a obter as suas propriedades quando sujeitos a esse tipo de esforço. Foram também realizados ensaios de calcinação de forma a obter as frações mássicas de fibra e polímero presentes no compósito final. Sabidas as frações mássicas, converteramse em frações volúmicas e obtiveram-se as propriedades teoricamente esperadas através da Lei das Misturas e compararam-se com as obtidas experimentalmente. As propriedades obtidas foram também comparadas com as de outros compósitos pultrudidos.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
Vivemos num mundo em constante mudança, onde a evolução tecnológica está cada vez mais presente no nosso quotidiano e as suas influências são inúmeras nas nossas vidas. Por outro lado, a vida humana é algo extremamente valioso e único pelo que a sociedade, também nessa área, tem procurado evoluir e dotar-se de novos meios e mecanismos de atuação, que possibilitem um socorro rápido e adequado em situações que possam em algum momento pôr em perigo a vida do ser humano. Pretendemos com o presente estudo, correlacionar estas duas vertentes, a do socorro á vítima para apoio á vida humana e a tecnologia no sentido de contribuir para uma formação mais distribuída mas ao mesmo tempo capaz de transmitir conhecimentos necessários á formação dos que socorrem. Para o efeito, planeamos o desenvolvimento de um Objeto de Aprendizagem (OA) denominado CiTAT (Curso Interativo de Tripulante de Ambulância de Transporte) que tem como objetivo acrescentar valor a todos os que são obrigados a frequentar o curso em regime presencial de Tripulante de Ambulância de Transporte (TAT). Após uma fase de análise do estado da arte relacionada com este tipo de formação, e após termos percebido como funciona e que tipos de recursos utilizam, analisámos temas relacionados com este tipo de formação como o “Sistema Integrado de Emergência Médica” o “Exame á Vítima”, o “Suporte Básico de Vida” e as “Emergências de Trauma”. Percebemos que a mudança de paradigma de formação das pessoas passou a ter novas formas de distribuir conhecimento em formato digital e que proporciona aos formandos um ensino distribuído em formatos de e-learning ou de b-learning. Os Objetos de Aprendizagem (OA) parecem assumir um relevo especial no ensino da área da saúde, abordando áreas temáticas e proporcionando aos seus utilizadores mecanismos de autoavaliação após a visualização dos conteúdos pedagógicos. Após o desenho do modelo concetual do CiTAT, avançamos para a produção de recursos necessários para a sua integração no OA. Após uma fase de testes e ajustes, avançamos para a sua avaliação final por parte dos utilizadores e preparamos um questionário para aferir o potencial de utilização deste tipo de soluções no ensino de TAT, atendendo ao facto de ser uma formação obrigatória e cuja recertificação é feita de três em três anos. O passo final foi a sua distribuição ao nível global, sendo o CiTAT catalogado com metadados e colocado no repositório MERLOT.