636 resultados para SIS
Resumo:
O leite é um alimento de grande importância na alimentação humana e amplamente consumido. Desta forma, justifica-se o estudo de suas características e a avaliação de procedimentos higiênicos durante toda a sua cadeia produtiva, desde a ordenha até o seu processamento. O objetivo do trabalho foi caracterizar laticínios localizados no estado do Espírito Santo, bem como avaliar as características de qualidade do leite cru e do leite pasteurizado de quatro estabelecimentos. O estudo foi dividido em quatro etapas: 1) seleção de dois laticínios com Selo de Inspeção Federal (SIF) e dois laticínios com Selo de Inspeção Estadual (SIE); 2) Elaboração de questionário para coleta de dados; 3) coleta de amostras de leite cru refrigerado e leite pasteurizado nos laticínios selecionados e avaliação da qualidade da matéria-prima e; 4) caracterização dos quatro laticínios e avaliação das condições higiênico-sanitárias dos estabelecimentos (aplicação questionário elaborado e da Lista de Verificação de Boas Práticas de Fabricação - check-list – presente na RDC nº 275 / 2002 da Anvisa).Os resultados obtidos com as análises de composição centesimal, acidez titulável, pH e Contagem de Células Somáticas (CCS) das amostras dos laticínios SIF 1, SIF 2, SIE 1 e SIE 2 indicaram conformidade com o padrão exigido pela Instrução Normativa nº 62/2011 do MAPA. Com relação ao teste do alizarol, todas as amostras analisadas apresentaram coloração parda avermelhada sem coagulação, indicando conformidade com a exigência da legislação. Para o teste de detecção de antibiótico da classe β-lactâmicos, todas as amostras de leite dos quatro laticínios analisadas nas três coletas tiveram ausência pelo método utilizado. Em uma das amostras coletadas da indústria SIF 1 foi verificada a presença da enzima fosfatase alcalina em leite pasteurizado, indicando que o tratamento térmico não foi adequado e que, portanto, poderia haver presença de microrganismos patogênicos na amostra, ou que a enzima se renaturou, apresentando um resultado falso positivo para o teste. Além disso, foi verificado que duas amostras de leite coletadas do laticínio SIE 1 apresentaram ausência da enzima lactoperoxidase,O leite é um alimento de grande importância na alimentação humana e amplamente consumido. Desta forma, justifica-se o estudo de suas características e a avaliação de procedimentos higiênicos durante toda a sua cadeia produtiva, desde a ordenha até o seu processamento. O objetivo do trabalho foi caracterizar laticínios localizados no estado do Espírito Santo, bem como avaliar as características de qualidade do leite cru e do leite pasteurizado de quatro estabelecimentos. O estudo foi dividido em quatro etapas: 1) seleção de dois laticínios com Selo de Inspeção Federal (SIF) e dois laticínios com Selo de Inspeção Estadual (SIE); 2) Elaboração de questionário para coleta de dados; 3) coleta de amostras de leite cru refrigerado e leite pasteurizado nos laticínios selecionados e avaliação da qualidade da matéria-prima e; 4) caracterização dos quatro laticínios e avaliação das condições higiênico-sanitárias dos estabelecimentos (aplicação questionário elaborado e da Lista de Verificação de Boas Práticas de Fabricação - check-list – presente na RDC nº 275 / 2002 da Anvisa).Os resultados obtidos com as análises de composição centesimal, acidez titulável, pH e Contagem de Células Somáticas (CCS) das amostras dos laticínios SIF 1, SIF 2, SIE 1 e SIE 2 indicaram conformidade com o padrão exigido pela Instrução Normativa nº 62/2011 do MAPA. Com relação ao teste do alizarol, todas as amostras analisadas apresentaram coloração parda avermelhada sem coagulação, indicando conformidade com a exigência da legislação. Para o teste de detecção de antibiótico da classe β-lactâmicos, todas as amostras de leite dos quatro laticínios analisadas nas três coletas tiveram ausência pelo método utilizado. Em uma das amostras coletadas da indústria SIF 1 foi verificada a presença da enzima fosfatase alcalina em leite pasteurizado, indicando que o tratamento térmico não foi adequado e que, portanto, poderia haver presença de microrganismos patogênicos na amostra, ou que a enzima se renaturou, apresentando um resultado falso positivo para o teste. Além disso, foi verificado que duas amostras de leite coletadas do laticínio SIE 1 apresentaram ausência da enzima lactoperoxidase,O leite é um alimento de grande importância na alimentação humana e amplamente consumido. Desta forma, justifica-se o estudo de suas características e a avaliação de procedimentos higiênicos durante toda a sua cadeia produtiva, desde a ordenha até o seu processamento. O objetivo do trabalho foi caracterizar laticínios localizados no estado do Espírito Santo, bem como avaliar as características de qualidade do leite cru e do leite pasteurizado de quatro estabelecimentos. O estudo foi dividido em quatro etapas: 1) seleção de dois laticínios com Selo de Inspeção Federal (SIF) e dois laticínios com Selo de Inspeção Estadual (SIE); 2) Elaboração de questionário para coleta de dados; 3) coleta de amostras de leite cru refrigerado e leite pasteurizado nos laticínios selecionados e avaliação da qualidade da matéria-prima e; 4) caracterização dos quatro laticínios e avaliação das condições higiênico-sanitárias dos estabelecimentos (aplicação questionário elaborado e da Lista de Verificação de Boas Práticas de Fabricação - check-list – presente na RDC nº 275 / 2002 da Anvisa).Os resultados obtidos com as análises de composição centesimal, acidez titulável, pH e Contagem de Células Somáticas (CCS) das amostras dos laticínios SIF 1, SIF 2, SIE 1 e SIE 2 indicaram conformidade com o padrão exigido pela Instrução Normativa nº 62/2011 do MAPA. Com relação ao teste do alizarol, todas as amostras analisadas apresentaram coloração parda avermelhada sem coagulação, indicando conformidade com a exigência da legislação. Para o teste de detecção de antibiótico da classe β-lactâmicos, todas as amostras de leite dos quatro laticínios analisadas nas três coletas tiveram ausência pelo método utilizado. Em uma das amostras coletadas da indústria SIF 1 foi verificada a presença da enzima fosfatase alcalina em leite pasteurizado, indicando que o tratamento térmico não foi adequado e que, portanto, poderia haver presença de microrganismos patogênicos na amostra, ou que a enzima se renaturou, apresentando um resultado falso positivo para o teste. Além disso, foi verificado que duas amostras de leite coletadas do laticínio SIE 1 apresentaram ausência da enzima lactoperoxidase,indicando a sua desnaturação devido à superpasteurização do leite. Para as análises microbiológicas de contagem bacteriana total e bactérias psicrotróficas, foi verificado uma contagem acima do estabelecido pela legislação. Além disso, os maiores valores médios de Contagem Bacteriana Total (CBT), contagem de microrganismos psicrotróficos e coliformes totais nas amostras de leite cru refrigerado foram verificados entre os laticínios com SIF, podendo ter como causa o uso de tanques comunitários pelos produtores, tempo de transporte para coleta de leite maior do que a média dos laticínios com SIE, a falta de adoção das Boas Práticas de Ordenha e o maior volume de leite coletado de diferentes produtores. Com relação à CBT e à contagem de coliformes totais em leite pasteurizado, os maiores valores médios foram verificados também nos laticínios SIF 1 e SIF 2. Os laticínios que apresentaram maior porcentagem de adequação aos requisitos das BPF foram os laticínios SIF 1 (87,82 %) e SIF 2 (80,66 %), os quais já possuíam os POP’s (Procedimento Operacional Padronizado), CIP (Controle Integrado de Pragas) e BPF (Boas Práticas de Fabricação) implantados ou em fase final de implantação. A análise dos resultados das análises microbiológicas, da aplicação do check-list e da aplicação do questionário permitiu a conclusão de que as empresas que possuíam SIF, apesar de apresentarem uma maior porcentagem de adequação aos requisitos de boas práticas de fabricação, possuíam uma qualidade da matéria-prima menor do que as indústrias com SIE. A partir dos resultados obtidos, pode-se concluir que o estudo de laticínios no estado do Espírito Santo possibilitou o conhecimento do setor e de seus problemas, contribuindo para o emprego de ações de melhoria e prevenção de futuros problemas.
Resumo:
Software and information services (SIS) have become a field of increasing opportunities for international trade due to the worldwide diffusion of a combination of technological and organizational innovations. In several regions, the software industry is organized in clusters, usually referred to as "knowledge cities" because of the growing importance of knowledge-intensive services in their economy. This paper has two primary objectives. First, it raises three major questions related to the attractiveness of different cities in Argentina and Brazil for hosting software companies and to their impact on local development. Second, a new taxonomy is proposed for grouping clusters according to their dominant business segment, ownership pattern and scope of operations. The purpose of this taxonomy is to encourage further studies and provide an exploratory analytical tool for analyzing software clusters.
Resumo:
RESUMOEste trabalho, baseando-se na Teoria Ator-Rede, visa analisar a implantação de um sistema de informação em saúde (SIS) em um hospital público brasileiro, seguindo os atores envolvidos nas controvérsias ocorridas durante a trajetória do projeto. As mudanças observadas durante a implantação do sistema revelam que a noção de sucesso foi construída coletivamente, por meio da negociação de dispositivos de interessamento introduzidos durante o projeto.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Informática
Resumo:
Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.
Resumo:
O Sector eléctrico possui uma grande importância nas sociedades modernas. Dados os elevados custos de produção de energia e o grande impacto que esta tem na nossa economia e na sociedade, em geral, a utilização mais eficiente da energia é um factor fulcral. Com a evolução da electrónica e consequente aumento das capacidades dos computadores, as protecções eléctricas são cada vez mais eficazes e com índices de fiabilidade mais elevados, algo muito importante em instalações de elevado custo de investimento e manutenção. No entanto, o seu bom funcionamento está dependente do correcto dimensionamento das protecções e de uma análise técnica capaz de prever necessidades futuras. Após uma breve introdução no capítulo 1 é efectuado no capítulo 2 um breve estudo de protecções eléctricas e o seu estado de arte. Nos Capítulos 3 e 4 é efectuado o dimensionamento e estudo da selectividade das protecções de grupo de Alternador e Transformador escolhidos para a nova central de cogeração da refinaria de Matosinhos da Galp. No presente estudo foram apenas consideradas as protecções típicas de alternador e apenas a protecção diferencial do transformador. Todas as protecções foram dimensionadas com base no tutorial de protecções de geradores do IEE e com informação referente ao manual de instruções do relé G60 da GE industrial systems, o DTP-B da GE multilin e o ELIN Power Plant Automation. No Capítulo 5 é demonstrada a importância da análise Safety Instruments Systems (SIS), o seu modo de aplicação e necessidade de implementação em locais industriais como o caso em estudo. Por último, é efectuado um pequeno estudo económico onde é efectuada a comparação dos custos dos diversos equipamentos, protecções e manutenções efectuadas.
Resumo:
Este documento descreve um modelo de tolerância a falhas para sistemas de tempo-real distribuídos. A sugestão deste modelo tem como propósito a apresentação de uma solu-ção fiável, flexível e adaptável às necessidades dos sistemas de tempo-real distribuídos. A tolerância a falhas é um aspeto extremamente importante na construção de sistemas de tempo-real e a sua aplicação traz inúmeros benefícios. Um design orientado para a to-lerância a falhas contribui para um melhor desempenho do sistema através do melhora-mento de aspetos chave como a segurança, a confiabilidade e a disponibilidade dos sis-temas. O trabalho desenvolvido centra-se na prevenção, deteção e tolerância a falhas de tipo ló-gicas (software) e físicas (hardware) e assenta numa arquitetura maioritariamente basea-da no tempo, conjugada com técnicas de redundância. O modelo preocupa-se com a efi-ciência e os custos de execução. Para isso utilizam-se também técnicas tradicionais de to-lerância a falhas, como a redundância e a migração, no sentido de não prejudicar o tempo de execução do serviço, ou seja, diminuindo o tempo de recuperação das réplicas, em ca-so de ocorrência de falhas. Neste trabalho são propostas heurísticas de baixa complexida-de para tempo-de-execução, a fim de se determinar para onde replicar os componentes que constituem o software de tempo-real e de negociá-los num mecanismo de coordena-ção por licitações. Este trabalho adapta e estende alguns algoritmos que fornecem solu-ções ainda que interrompidos. Estes algoritmos são referidos em trabalhos de investiga-ção relacionados, e são utilizados para formação de coligações entre nós coadjuvantes. O modelo proposto colmata as falhas através de técnicas de replicação ativa, tanto virtual como física, com blocos de execução concorrentes. Tenta-se melhorar ou manter a sua qualidade produzida, praticamente sem introduzir overhead de informação significativo no sistema. O modelo certifica-se que as máquinas escolhidas, para as quais os agentes migrarão, melhoram iterativamente os níveis de qualidade de serviço fornecida aos com-ponentes, em função das disponibilidades das respetivas máquinas. Caso a nova configu-ração de qualidade seja rentável para a qualidade geral do serviço, é feito um esforço no sentido de receber novos componentes em detrimento da qualidade dos já hospedados localmente. Os nós que cooperam na coligação maximizam o número de execuções para-lelas entre componentes paralelos que compõem o serviço, com o intuito de reduzir atra-sos de execução. O desenvolvimento desta tese conduziu ao modelo proposto e aos resultados apresenta-dos e foi genuinamente suportado por levantamentos bibliográficos de trabalhos de in-vestigação e desenvolvimento, literaturas e preliminares matemáticos. O trabalho tem também como base uma lista de referências bibliográficas.
Resumo:
RESUMO: Introdução: A dor e disfunções do movimento no complexo articular do ombro (CAO) são comuns e debilitantes. O uso de exercícios segundo os pressupostos de estabilidade dinâmica (ED), com auxílio de Biofeedback electromiográfico (BEMG) tem vindo a ser referido, como uma forma de aumentar a efectividade da intervenção nas disfunções do complexo articular do ombro (DCAO)Objectivo Principal: Estudar os efeitos de um protocolo de intervenção, com BEMG, cujas finalidades foram abolir a dor, aumentar a funcionalidade e a ED da omoplata, em utentes com DCAO. Objectivos secundários: Comparar os subgrupos e quanto às características, resultados, tempos de intervenção total e até atingir critérios de alta; Comparar os resultados nos momentos inicial e final. Métodos: Foi realizado um coorte clínico, longitudinal, retrospectivo, observacional, analítico. A amostra foi constituída por 82 sujeitos, divididos em dois subgrupos (n=53 SCSA e n=29 IGU). Os instrumentos de medida utilizados foram a EVA, o DASH, o SPADI e o BEMG. Foi seguido o protocolo de ED proposto por Santos e Matias (2007), de acordo com as 3 fases de intervenção por eles descritas, realizando uma sessão semanal, monitorizando exercícios que seguem estes princípios, com BEMG. Foram avaliadas as variáveis dor, postura, padrão de recrutamento, controlo motor, posição inicial da omoplata (PIO), amplitudes articulares (AA’s), força muscular (FM) e postura. Para analisar os dados, recorreu-se a estatística descritiva e inferencial. Resultados: A intervenção foi efectiva na abolição da dor no momento (0,43 para 0,00/10EVA no subgrupo SCSA e 0,66 para 0,00/10EVA no subgrupo IGU) na pior dor (5,47/10EVA para 0,06/10EVA no subgrupo SCSA e 5,28/10 para 0,14/10 no subgrupo IGU), no aumento da função (28,57 para 0,66/100DASH e 39,00 para 0,63/100SAPDI no subgrupo SCSA e 25,80 para 0,38/100DASH e 28,19 para 0,39/100 no subgrupo IGU) e no aumento da ED da omoplata com normalização do padrão de recrutamento, controlo motor, PIO dentro do espectro de normalidade e boa capacidade de controlar a sua posição, ao longo do movimento do membro superior (MS). A intervenção proporcionou, ainda a normalização das AA’s, FM e autocorrecção postural. O tempo médio de intervenção foi de 6,45semanas no subgrupo SCSA e 5,83sem no subgrupo IGU. Estes resultados são semelhantes comparativamente a estudos que utilizaram uma intervenção baseada nos mesmos princípios (Matias e Cruz, 2004; Cunha e Matias, 2006; Santos e Matias, 2007; Rodrigues e Matias, 2009). Conclusão: O protocolo de intervenção aplicado, com uso de exercícios baseados nos princípios da ED e uso de BEMG, permitiu o alcance dos objectivos, junto de utentes com DCAO (SCSA e IGU). Verificou-se que, independentemente da condição, os resultados foram idênticos em ambos subgrupos, não apresentando diferenças significativas entre as variáveis de medida final, o tempo total de intervenção e os tempos até atingir os critérios de alta, expecto para a Dor, sendo este superior no subgrupo SCSA.---------------------------------------- ABSTRACT:Introduction: Movement disorders and pain in the shoulder joint complex (SJC) are common and debilitating. The use of exercises under the premises of dynamic stability (DS), with the aid of electromyographic biofeedback (EMGBF) has been mentioned as a way to increase the effectiveness of the intervention in disorders of the shoulder joint complex (DSJC) Main Objective: To evaluate the results of an intervention protocol, with EMGBF whose aims were to abolish the pain, increase functionality and DS of the scapula in patients with DSJC. Objectives: To compare the subgroups and the characteristics, outcomes, and total intervention times to reach discharge criteria; to compare the results at the beginning and at the end. Methods: We conducted a clinical cohort, longitudinal, retrospective, observational analysis. The sample consisted of 82 subjects, divided into two subgroups (n = 53 shoulder impingement syndrome SIS n = 29 shoulder joint instability SJI). The measurement instruments used were the VAS, DASH, SPADI, and EMGBF. It was followed the DS protocol proposed by Santos and Matias (2007), according to the three phases of intervention, described by performing a weekly session, monitoring exercises that follow these principles, with EMGBF. The variables were pain, posture, recruitment pattern, motor control, the initial position of the scapula (IPS), range of motion (ROM), muscular strength (MS) and posture. To analyze the data, we used the descriptive and inferential statistics. Results: The intervention was effective in abolishing the pain at the time (0.43 to 0.00/10 VAS in the SIS subgroup and 0.66 to 0.00/10 VAS in the SJI subgroup) in worst pain (5.47 to 0,06/10 VAS in the SIS subgroup and 5.28/ to 0.14/10 VAS in the SJI subgroup), increasing the function (28,57 to 0,66/100 DASH and 39,00 to 0,63/100 SAPDI in the SIS subgroup and 25,80 to 0,38/100 DASH and 28,19 to 0,39/100 SPADI in the SJI subgroup) and the increase in DS of the scapula with normalization of the pattern recruitment, motor control, IPS within the spectrum of normalcy and good ability to control its position along the movement of the upper limb (UL). The intervention provided, although the normalization of ROM, MS and self-correcting posture. The average length of intervention was 6.45 weeks in the SIS subgroup and 5.83 in the IS subgroup. These results are comparable with similar studies that used an intervention based on the same principles (Matias e Cruz, 2004; Cunha e Matias, 2006; Santos e Matias, 2007; Rodrigues e Matias, 2009). Conclusion: The intervention protocol implemented with the use of exercises based on the principles of DS and the use of EMGBF was effective, allowing the accomplishment of goals, in patients with DSJC (SIS and SJI). It was found that, regardless of condition, the results were identical in both groups, showing no significant differences between the variables of the final measure, the total time of intervention and the times to reach discharge criteria, except for pain, which was higher in the SIS subgroup.
Resumo:
O presente estudo teve como objetivos: (i) analisar as redes de suporte e experiências na comunidade estabelecidas no processo de transição para a vida pós escolar de alunos com necessidades adicionais de suporte - considerando o ponto de vista dos professores de educação especial e dos próprios; (ii) e explorar em que medida o perfil de necessidades de apoio providenciado pela Escala de Intensidade de Apoios (SIS-C), poderá basear planos de suportes que promovam respostas mais orientadas para a participação social – tendo por base o processo de dois dos jovens em circunstâncias de transição para a vida pós-escolar. Para o efeito, foi desenvolvida uma pesquisa por inquérito, obtendo resposta de 50 professores de educação especial a um questionário vocacionado para o mapeamento das redes de suporte e das experiências na comunidade no processo de transição. Foi também conduzido um estudo de caso, onde se procedeu à entrevista de 2 jovens, suas famílias e equipas de suporte, e à análise documental dos seus processos, a fim de aferir a utilidade da SIS-C no processo de planeamento das respostas educativas. Os resultados deste estudo indicam que as redes sociais de suporte no processo de transição são essencialmente compostas por elementos dos contextos familiar e escolar, com necessidade de ampliar o envolvimento da comunidade. A participação cívica, e o envolvimento em atividades de recreação (como visitar amigos, passear/ conviver) são também experiências em necessidade de expansão. No estudo de caso, a SIS-C possibilitou uma maior orientação dos processos de avaliação e intervenção para a participação, bem como, uma identificação mais ampla de estratégias ambientais a implementar
Resumo:
23rd International Conference on Real-Time Networks and Systems (RTNS 2015). 4 to 6, Nov, 2015, Main Track. Lille, France. Best Paper Award Nominee
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Geológica (Georrecursos)
Resumo:
The prevalence of antibodies against Equine Influenza Virus (EIV) was determined in 529 equines living on ranches in the municipality of Poconé, Pantanal area of Brazil, by means of the hemagglutination inhibition test, using subtype H3N8 as antigen. The distribution and possible association among positive animal and ranches were evaluated by the chi-square test, spatial autoregressive and multiple linear regression models. The prevalence of antibodies against EIV was estimated at 45.2% (95% CI 30.2 - 61.1%) with titers ranging from 20 to 1,280 HAU. Seropositive equines were found on 92.0% of the surveyed ranches. Equine from non-flooded ranches (66.5%) and negativity in equine infectious anemia virus (EIAV) (61.7%) were associated with antibodies against EIV. No spatial correlation was found among the ranches, but the ones located in non-flooded areas were associated with antibodies against EIV. A negative correlation was found between the prevalence of antibodies against EIV and the presence of EIAV positive animals on the ranches. The high prevalence of antibodies against EIV detected in this study suggests that the virus is circulating among the animals, and this statistical analysis indicates that the movement and aggregation of animals are factors associated to the transmission of the virus in the region.
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em História da Arte – Área de especialização em História da Arte da Antiguidade
Resumo:
Trabalho de Projeto apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Antropologia/Culturas Visuais
Resumo:
Os sistemas distribuídos de manufactura (SDM) possuem como principais características a capacidade de executarem processos de manufactura de forma distribuída em ambientes heterogéneos, em que os diversos estágios e parceiros envolvidos funcionam de forma autónoma. Dotados de uma boa capacidade de adaptação a mercados em constante mudança, são sis-temas complexos e dinâmicos, sendo difícil prever o seu desempenho sem abordagens adequadas, nomeadamente, recorrendo a métodos de simulação. No entanto os pacotes de simulação que existem actualmente, apesar de boa qualidade e bastante flexíveis, ainda se caracterizam por uma limitada capacidade para a simulação de SDM. Por outro lado, o desenvolvi-mento duma ferramenta de manufactura que combine a simulação ao nível local de processos de manufactura (por exemplo: com robôs e maquinas industriais) e a correspondente ao nível global e distribuído, revela-se significativamente complexo e oneroso. Ao invés de se desenvolver tal sistema, com este trabalho, pretende-se especificar um modelo e respectiva ferramenta que permita a simulação de SDM, recorrendo a produtos comerciais já existentes, mediante a definição duma estratégia de interoperabilidade entre as ferramentas. A simulação em simultâneo, de forma agregada e em tempo real dos diversos níveis estratégicos e locais de um SDM, permite assim uma melhor estimativa do seu desempenho futuro.