653 resultados para sis ¨ all¨on perillesaattaminen
Resumo:
Burnside asked questions about periodic groups in his influential paper of 1902. The study of groups with exponent six is a special case of the study of the Burnside questions on which there has been significant progress. It has contributed a number of worthwhile aspects to the theory of groups and in particular to computation related to groups. Finitely generated groups with exponent six are finite. We investigate the nature of relations required to provide proofs of finiteness for some groups with exponent six. We give upper and lower bounds for the number of sixth powers needed to define the largest 2-generator group with exponent six. We solve related questions about other groups with exponent sis using substantial computations which we explain.
Resumo:
The present study aimed to assess the reliability of intra and inter-examiner subacromial impingement index (SII) measures obtained from radiographs. Thirty-six individuals were enrolled and divided into two groups: control group, composed of 18 volunteers in good general health without shoulder problems, and a group of 18 patients with subacromial impingement syndrome (SIS). Radiographic images were taken with the dominant upper limb in neutral rotation, while the volunteers held their arm at 90A degrees of abduction in the frontal plane. The beam of radiation at 30A degrees craniocaudal inclination was used to provide an antero-posterior image view. Three blinded examiners each performed three measurements from the subacromial space (SS) and the anatomical neck of the humerus (NH). The SII was calculated as the ratio of the SS and the NH measures. The mean values of SII were compared using t-tests. The intra-class correlation coefficient (ICC) was used to assess intra- and inter-examiner reliability of the measures. The mean values of SII were greater for the control group (0.12) than for the SIS group (0.08; p = 0.0071). SII measurements showed excellent intra (0.96-0.99) and inter-examiner reliability (0.94) for both the control and SIS group. The results of this study show the potential use of the SII; a greater mean value for the control group compared to the SIS group and excellent reliability for intra- and inter-examiner measurement. Validation studies of the index should be conducted to correlate the index with clinical findings from subacromial impingement syndrome.
Resumo:
Positive end-expiratory pressure (PEEP) and sustained inspiratory insufflations (SI) during acute lung injury (ALI) are suggested to improve oxygenation and respiratory mechanics. We aimed to investigate the hemodynamic effects of PEEP with and without alveolar recruiting maneuver in a mild ALI model induced by inhalation of hydrochloric acid. Thirty-two pigs were randomly allocated into four groups (Control-PEEP, Control-SI, ALI-PEEP and ALI-SI). ALI was induced by intratracheal instillation of hydrochloric acid. PEEP values were progressively increased and decreased from 5, 10, 15 and 20 cmH(2)O in all groups. Three SIs maneuvers of 30 cmH(2)O for 20 s were applied to the assignable groups between each PEEP level. Transesophageal echocardiography (TEE), global hemodynamics, oxygenation indexes and gastric tonometry were measured 5 min after the maneuvers had been concluded and at each established value of PEEP (5, 10, 15 and 20 cmH(2)O). The cardiac index, ejection fraction and end-diastolic volume of right ventricle were significantly (P < 0.001) decreased with PEEP in both Control and ALI groups. Left ventricle echocardiography showed a significant decrease in end-diastolic volume at 20 cmH(2)O of PEEP (P < 0.001). SIs did not exert any significant hemodynamic effects either early (after 5 min) or late (after 3 h). In a mild ALI model induced by inhalation of hydrochloric acid, significant hemodynamic impairment characterized by cardiac function deterioration occurred during PEEP increment, but SI, probably due to low applied values (30 cmH(2)O), did not exert further negative hemodynamic effects. PEEP should be used cautiously in ALI caused by acid gastric content inhalation.
Resumo:
Objectives: To investigate the pharmacokinetics of intravenous ciprofloxacin 200 mg every 8 h in critically ill patients on continuous veno-venous haemodiafiltration (CVVHDF), one form of continuous renal replacement therapy (CRRT). Design and setting: Open, prospective clinical study in a multidisciplinary, intensive care unit in a university-affiliated tertiary referral hospital. Patients: Sis critically ill patients with acute renal failure on CVVHDF. Interventions: Timed blood and ultrafiltrate samples were collected to allow pharmacokinetics and clearances to be calculated of initial and subsequent doses of 200 mg intravenous ciprofloxacin. CVVHD was performed with 1 l/h of dialysate and 2 l/h of predilution filtration solution, producing 3 lih of dialysis effluent. The blood was pumped at 200 ml/min using a Gambro BMM-10 blood pump through a Hospal AN69HF haemofilter,. Measurements and results: Ten pharmacokinetic profiles were measured. The CVVHDF displayed a urea clearance of 42 +/- 3 ml/min, and removed ciprofloxacin with a clearance of 37 +/- 7 ml/min. This rate was 2-2.5 greater than previously published for ciprofloxacin in other forms of CRRT. On average the CVVHDF was responsible for clearing a fifth of all ciprofloxacin eliminated (21 +/- 10%). The total body clearance of ciprofloxacin was 12.2 +/- 4.3 l/h. The trough concentration following the initial dose was 0.7 +/- 0.3 mg/l. The area under the plasma concentration time curves over a 24-h period ranged from 21 to 55 mg .h l(-1). Conclusions: Intravenous ciprofloxacin 600 mg/day in critically ill patients using this form of CRRT produced adequate plasma levels for many resistant microbes found in intensive care units.
Resumo:
O BPPH foi idealizado pelo Ministro Jos?? Serra no in??cio de sua gest??o em Abril de 1998, visando uma pol??tica de transpar??ncia na utiliza????o dos recursos p??blicos e, tamb??m a busca da disponibilidade de mais um instrumento regulador de mercado. A implanta????o do sistema, abrange atualmente 32 hospitais federais, estaduais, municipais e 5 secretarias estaduais de sa??de que alimentam o BPPH via INTERNET, permitindo contabilizar um benef??cio de R$ 1.373.687,00 (redu????o do custo entre 2 compras consecutivas) somente nos 5 hospitais fundadores do sistema, sendo que 50% desse valor pode-se atribuir ao uso do Banco de Pre??os. Este trabalho foi apresentado no CONIP99 - Congresso de Inform??tica P??blica 1999 - em nome do Minist??rio da Sa??de, com a autoriza????o emitida pelo Senhor Chefe de Gabinete do Ministro, Dr. Ot??vio Azevedo Mercadante. O BPPH foi desenvolvido e implantado no per??odo de Maio de 1998 a Abril de 1999 como um projeto do Grupo Executivo de A????o Estrat??gica na ??rea Hospitalar, grupo este coordenado pelo Dr. Benedito Nicotero Filho, Assessor Especial do Ministro da Sa??de. O BPPH no seu processo de institucionaliza????o foi transferido do Gabinete do Ministro para a Secretaria de Gest??o de Investimentos em Sa??de. As Portarias do Ministro da Sa??de que regulamentam o sistema s??o: Portaria 3.505 publicada em 28 de Agosto de 1998 cria a C??mara T??cnica Consultiva do BPPH; Portaria 74 publicada em 02 de Fevereiro de 1999 institui a obrigatoriedade para hospitais p??blicos de mais de 320 leitos e a Portaria 481 publicada em 19 de Abril de 1999 transfere a subordina????o da C??mara T??cnica e do Sistema para a Secretaria de Gest??o de Investimentos em Sa??de. Este trabalho foi o ganhador do Pr??mio CONIP99 de Excel??ncia em Inform??tica P??blica
Resumo:
Apresenta o SabeRES em Gest??o P??blica (www.saberes.seap.pr.gov.br), um reposit??rio institucional de acesso livre, aberto a todos os temas relativos ?? gest??o nas organiza????es p??blicas, com ampla tipologia multim??dia de documentos. Inserida no Movimento Mundial do Open Access, dos Recursos Educacionais Abertos e da Ecologia do Conhecimento (pol??tica de compartilhamento), a Escola de Governo do Paran?? desenvolveu, em 2008, um espa??o digital de armazenamento, preserva????o, divulga????o e acesso ?? produ????o do conhecimento em Gest??o P??blica. A metodologia constou de uma an??lise SWOT, seguida de planejamento gr??fico e estrutural, defini????o da arquitetura (conte??do e forma), constru????o da interface gr??fica com ferramenta XOOPS (software livre) e defini????o da ??rvore inicial de menus. Ap??s a constru????o da arquitetura da informa????o come??ou o treinamento da equipe para a gest??o e a manuten????o, a inser????o dos documentos (publica????es, artigos, v??deos, materiais de curso), a disponibiliza????o e a difus??o na Internet, a constitui????o de C??mara T??cnica para apreciar os documentos recebidos e a gest??o continuada do SabeRES. Definiu-se que no SabeRES em Gest??o P??blica ser??o inclu??das publica????es em gest??o p??blica de outros Estados, do Conselho Nacional de Secret??rios de Estado da Administra????o (CONSAD) e da Rede Nacional de Escolas de Governo. A tend??ncia ?? que num futuro pr??ximo seja poss??vel oportunizar o auto-arquivamento dos documentos, preenchendo os metadados relacionados ao seu tema. Al??m disso, espera-se que o sistema estabelecido pela Institui????o seja compat??vel e gere interoperabilidade com o portal de reposit??rios O??sis do Instituto Brasileiro de Informa????o em Ci??ncia e Tecnologia (IBICT) / Minist??rio da Ci??ncia e Tecnologia. Partindo do princ??pio que s?? se cria conhecimento novo a partir da informa????o que est?? acess??vel, com a cria????o do SabeRES em Gest??o P??blica amplia-se a visibilidade e a acessibilidade da produ????o do conhecimento, para que se produza cada vez mais e com mais qualidade
Resumo:
O leite é um alimento de grande importância na alimentação humana e amplamente consumido. Desta forma, justifica-se o estudo de suas características e a avaliação de procedimentos higiênicos durante toda a sua cadeia produtiva, desde a ordenha até o seu processamento. O objetivo do trabalho foi caracterizar laticínios localizados no estado do Espírito Santo, bem como avaliar as características de qualidade do leite cru e do leite pasteurizado de quatro estabelecimentos. O estudo foi dividido em quatro etapas: 1) seleção de dois laticínios com Selo de Inspeção Federal (SIF) e dois laticínios com Selo de Inspeção Estadual (SIE); 2) Elaboração de questionário para coleta de dados; 3) coleta de amostras de leite cru refrigerado e leite pasteurizado nos laticínios selecionados e avaliação da qualidade da matéria-prima e; 4) caracterização dos quatro laticínios e avaliação das condições higiênico-sanitárias dos estabelecimentos (aplicação questionário elaborado e da Lista de Verificação de Boas Práticas de Fabricação - check-list – presente na RDC nº 275 / 2002 da Anvisa).Os resultados obtidos com as análises de composição centesimal, acidez titulável, pH e Contagem de Células Somáticas (CCS) das amostras dos laticínios SIF 1, SIF 2, SIE 1 e SIE 2 indicaram conformidade com o padrão exigido pela Instrução Normativa nº 62/2011 do MAPA. Com relação ao teste do alizarol, todas as amostras analisadas apresentaram coloração parda avermelhada sem coagulação, indicando conformidade com a exigência da legislação. Para o teste de detecção de antibiótico da classe β-lactâmicos, todas as amostras de leite dos quatro laticínios analisadas nas três coletas tiveram ausência pelo método utilizado. Em uma das amostras coletadas da indústria SIF 1 foi verificada a presença da enzima fosfatase alcalina em leite pasteurizado, indicando que o tratamento térmico não foi adequado e que, portanto, poderia haver presença de microrganismos patogênicos na amostra, ou que a enzima se renaturou, apresentando um resultado falso positivo para o teste. Além disso, foi verificado que duas amostras de leite coletadas do laticínio SIE 1 apresentaram ausência da enzima lactoperoxidase,O leite é um alimento de grande importância na alimentação humana e amplamente consumido. Desta forma, justifica-se o estudo de suas características e a avaliação de procedimentos higiênicos durante toda a sua cadeia produtiva, desde a ordenha até o seu processamento. O objetivo do trabalho foi caracterizar laticínios localizados no estado do Espírito Santo, bem como avaliar as características de qualidade do leite cru e do leite pasteurizado de quatro estabelecimentos. O estudo foi dividido em quatro etapas: 1) seleção de dois laticínios com Selo de Inspeção Federal (SIF) e dois laticínios com Selo de Inspeção Estadual (SIE); 2) Elaboração de questionário para coleta de dados; 3) coleta de amostras de leite cru refrigerado e leite pasteurizado nos laticínios selecionados e avaliação da qualidade da matéria-prima e; 4) caracterização dos quatro laticínios e avaliação das condições higiênico-sanitárias dos estabelecimentos (aplicação questionário elaborado e da Lista de Verificação de Boas Práticas de Fabricação - check-list – presente na RDC nº 275 / 2002 da Anvisa).Os resultados obtidos com as análises de composição centesimal, acidez titulável, pH e Contagem de Células Somáticas (CCS) das amostras dos laticínios SIF 1, SIF 2, SIE 1 e SIE 2 indicaram conformidade com o padrão exigido pela Instrução Normativa nº 62/2011 do MAPA. Com relação ao teste do alizarol, todas as amostras analisadas apresentaram coloração parda avermelhada sem coagulação, indicando conformidade com a exigência da legislação. Para o teste de detecção de antibiótico da classe β-lactâmicos, todas as amostras de leite dos quatro laticínios analisadas nas três coletas tiveram ausência pelo método utilizado. Em uma das amostras coletadas da indústria SIF 1 foi verificada a presença da enzima fosfatase alcalina em leite pasteurizado, indicando que o tratamento térmico não foi adequado e que, portanto, poderia haver presença de microrganismos patogênicos na amostra, ou que a enzima se renaturou, apresentando um resultado falso positivo para o teste. Além disso, foi verificado que duas amostras de leite coletadas do laticínio SIE 1 apresentaram ausência da enzima lactoperoxidase,O leite é um alimento de grande importância na alimentação humana e amplamente consumido. Desta forma, justifica-se o estudo de suas características e a avaliação de procedimentos higiênicos durante toda a sua cadeia produtiva, desde a ordenha até o seu processamento. O objetivo do trabalho foi caracterizar laticínios localizados no estado do Espírito Santo, bem como avaliar as características de qualidade do leite cru e do leite pasteurizado de quatro estabelecimentos. O estudo foi dividido em quatro etapas: 1) seleção de dois laticínios com Selo de Inspeção Federal (SIF) e dois laticínios com Selo de Inspeção Estadual (SIE); 2) Elaboração de questionário para coleta de dados; 3) coleta de amostras de leite cru refrigerado e leite pasteurizado nos laticínios selecionados e avaliação da qualidade da matéria-prima e; 4) caracterização dos quatro laticínios e avaliação das condições higiênico-sanitárias dos estabelecimentos (aplicação questionário elaborado e da Lista de Verificação de Boas Práticas de Fabricação - check-list – presente na RDC nº 275 / 2002 da Anvisa).Os resultados obtidos com as análises de composição centesimal, acidez titulável, pH e Contagem de Células Somáticas (CCS) das amostras dos laticínios SIF 1, SIF 2, SIE 1 e SIE 2 indicaram conformidade com o padrão exigido pela Instrução Normativa nº 62/2011 do MAPA. Com relação ao teste do alizarol, todas as amostras analisadas apresentaram coloração parda avermelhada sem coagulação, indicando conformidade com a exigência da legislação. Para o teste de detecção de antibiótico da classe β-lactâmicos, todas as amostras de leite dos quatro laticínios analisadas nas três coletas tiveram ausência pelo método utilizado. Em uma das amostras coletadas da indústria SIF 1 foi verificada a presença da enzima fosfatase alcalina em leite pasteurizado, indicando que o tratamento térmico não foi adequado e que, portanto, poderia haver presença de microrganismos patogênicos na amostra, ou que a enzima se renaturou, apresentando um resultado falso positivo para o teste. Além disso, foi verificado que duas amostras de leite coletadas do laticínio SIE 1 apresentaram ausência da enzima lactoperoxidase,indicando a sua desnaturação devido à superpasteurização do leite. Para as análises microbiológicas de contagem bacteriana total e bactérias psicrotróficas, foi verificado uma contagem acima do estabelecido pela legislação. Além disso, os maiores valores médios de Contagem Bacteriana Total (CBT), contagem de microrganismos psicrotróficos e coliformes totais nas amostras de leite cru refrigerado foram verificados entre os laticínios com SIF, podendo ter como causa o uso de tanques comunitários pelos produtores, tempo de transporte para coleta de leite maior do que a média dos laticínios com SIE, a falta de adoção das Boas Práticas de Ordenha e o maior volume de leite coletado de diferentes produtores. Com relação à CBT e à contagem de coliformes totais em leite pasteurizado, os maiores valores médios foram verificados também nos laticínios SIF 1 e SIF 2. Os laticínios que apresentaram maior porcentagem de adequação aos requisitos das BPF foram os laticínios SIF 1 (87,82 %) e SIF 2 (80,66 %), os quais já possuíam os POP’s (Procedimento Operacional Padronizado), CIP (Controle Integrado de Pragas) e BPF (Boas Práticas de Fabricação) implantados ou em fase final de implantação. A análise dos resultados das análises microbiológicas, da aplicação do check-list e da aplicação do questionário permitiu a conclusão de que as empresas que possuíam SIF, apesar de apresentarem uma maior porcentagem de adequação aos requisitos de boas práticas de fabricação, possuíam uma qualidade da matéria-prima menor do que as indústrias com SIE. A partir dos resultados obtidos, pode-se concluir que o estudo de laticínios no estado do Espírito Santo possibilitou o conhecimento do setor e de seus problemas, contribuindo para o emprego de ações de melhoria e prevenção de futuros problemas.
Resumo:
Software and information services (SIS) have become a field of increasing opportunities for international trade due to the worldwide diffusion of a combination of technological and organizational innovations. In several regions, the software industry is organized in clusters, usually referred to as "knowledge cities" because of the growing importance of knowledge-intensive services in their economy. This paper has two primary objectives. First, it raises three major questions related to the attractiveness of different cities in Argentina and Brazil for hosting software companies and to their impact on local development. Second, a new taxonomy is proposed for grouping clusters according to their dominant business segment, ownership pattern and scope of operations. The purpose of this taxonomy is to encourage further studies and provide an exploratory analytical tool for analyzing software clusters.
Resumo:
RESUMOEste trabalho, baseando-se na Teoria Ator-Rede, visa analisar a implantação de um sistema de informação em saúde (SIS) em um hospital público brasileiro, seguindo os atores envolvidos nas controvérsias ocorridas durante a trajetória do projeto. As mudanças observadas durante a implantação do sistema revelam que a noção de sucesso foi construída coletivamente, por meio da negociação de dispositivos de interessamento introduzidos durante o projeto.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Informática
Resumo:
Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.
Resumo:
O Sector eléctrico possui uma grande importância nas sociedades modernas. Dados os elevados custos de produção de energia e o grande impacto que esta tem na nossa economia e na sociedade, em geral, a utilização mais eficiente da energia é um factor fulcral. Com a evolução da electrónica e consequente aumento das capacidades dos computadores, as protecções eléctricas são cada vez mais eficazes e com índices de fiabilidade mais elevados, algo muito importante em instalações de elevado custo de investimento e manutenção. No entanto, o seu bom funcionamento está dependente do correcto dimensionamento das protecções e de uma análise técnica capaz de prever necessidades futuras. Após uma breve introdução no capítulo 1 é efectuado no capítulo 2 um breve estudo de protecções eléctricas e o seu estado de arte. Nos Capítulos 3 e 4 é efectuado o dimensionamento e estudo da selectividade das protecções de grupo de Alternador e Transformador escolhidos para a nova central de cogeração da refinaria de Matosinhos da Galp. No presente estudo foram apenas consideradas as protecções típicas de alternador e apenas a protecção diferencial do transformador. Todas as protecções foram dimensionadas com base no tutorial de protecções de geradores do IEE e com informação referente ao manual de instruções do relé G60 da GE industrial systems, o DTP-B da GE multilin e o ELIN Power Plant Automation. No Capítulo 5 é demonstrada a importância da análise Safety Instruments Systems (SIS), o seu modo de aplicação e necessidade de implementação em locais industriais como o caso em estudo. Por último, é efectuado um pequeno estudo económico onde é efectuada a comparação dos custos dos diversos equipamentos, protecções e manutenções efectuadas.
Resumo:
Este documento descreve um modelo de tolerância a falhas para sistemas de tempo-real distribuídos. A sugestão deste modelo tem como propósito a apresentação de uma solu-ção fiável, flexível e adaptável às necessidades dos sistemas de tempo-real distribuídos. A tolerância a falhas é um aspeto extremamente importante na construção de sistemas de tempo-real e a sua aplicação traz inúmeros benefícios. Um design orientado para a to-lerância a falhas contribui para um melhor desempenho do sistema através do melhora-mento de aspetos chave como a segurança, a confiabilidade e a disponibilidade dos sis-temas. O trabalho desenvolvido centra-se na prevenção, deteção e tolerância a falhas de tipo ló-gicas (software) e físicas (hardware) e assenta numa arquitetura maioritariamente basea-da no tempo, conjugada com técnicas de redundância. O modelo preocupa-se com a efi-ciência e os custos de execução. Para isso utilizam-se também técnicas tradicionais de to-lerância a falhas, como a redundância e a migração, no sentido de não prejudicar o tempo de execução do serviço, ou seja, diminuindo o tempo de recuperação das réplicas, em ca-so de ocorrência de falhas. Neste trabalho são propostas heurísticas de baixa complexida-de para tempo-de-execução, a fim de se determinar para onde replicar os componentes que constituem o software de tempo-real e de negociá-los num mecanismo de coordena-ção por licitações. Este trabalho adapta e estende alguns algoritmos que fornecem solu-ções ainda que interrompidos. Estes algoritmos são referidos em trabalhos de investiga-ção relacionados, e são utilizados para formação de coligações entre nós coadjuvantes. O modelo proposto colmata as falhas através de técnicas de replicação ativa, tanto virtual como física, com blocos de execução concorrentes. Tenta-se melhorar ou manter a sua qualidade produzida, praticamente sem introduzir overhead de informação significativo no sistema. O modelo certifica-se que as máquinas escolhidas, para as quais os agentes migrarão, melhoram iterativamente os níveis de qualidade de serviço fornecida aos com-ponentes, em função das disponibilidades das respetivas máquinas. Caso a nova configu-ração de qualidade seja rentável para a qualidade geral do serviço, é feito um esforço no sentido de receber novos componentes em detrimento da qualidade dos já hospedados localmente. Os nós que cooperam na coligação maximizam o número de execuções para-lelas entre componentes paralelos que compõem o serviço, com o intuito de reduzir atra-sos de execução. O desenvolvimento desta tese conduziu ao modelo proposto e aos resultados apresenta-dos e foi genuinamente suportado por levantamentos bibliográficos de trabalhos de in-vestigação e desenvolvimento, literaturas e preliminares matemáticos. O trabalho tem também como base uma lista de referências bibliográficas.
Resumo:
RESUMO: Introdução: A dor e disfunções do movimento no complexo articular do ombro (CAO) são comuns e debilitantes. O uso de exercícios segundo os pressupostos de estabilidade dinâmica (ED), com auxílio de Biofeedback electromiográfico (BEMG) tem vindo a ser referido, como uma forma de aumentar a efectividade da intervenção nas disfunções do complexo articular do ombro (DCAO)Objectivo Principal: Estudar os efeitos de um protocolo de intervenção, com BEMG, cujas finalidades foram abolir a dor, aumentar a funcionalidade e a ED da omoplata, em utentes com DCAO. Objectivos secundários: Comparar os subgrupos e quanto às características, resultados, tempos de intervenção total e até atingir critérios de alta; Comparar os resultados nos momentos inicial e final. Métodos: Foi realizado um coorte clínico, longitudinal, retrospectivo, observacional, analítico. A amostra foi constituída por 82 sujeitos, divididos em dois subgrupos (n=53 SCSA e n=29 IGU). Os instrumentos de medida utilizados foram a EVA, o DASH, o SPADI e o BEMG. Foi seguido o protocolo de ED proposto por Santos e Matias (2007), de acordo com as 3 fases de intervenção por eles descritas, realizando uma sessão semanal, monitorizando exercícios que seguem estes princípios, com BEMG. Foram avaliadas as variáveis dor, postura, padrão de recrutamento, controlo motor, posição inicial da omoplata (PIO), amplitudes articulares (AA’s), força muscular (FM) e postura. Para analisar os dados, recorreu-se a estatística descritiva e inferencial. Resultados: A intervenção foi efectiva na abolição da dor no momento (0,43 para 0,00/10EVA no subgrupo SCSA e 0,66 para 0,00/10EVA no subgrupo IGU) na pior dor (5,47/10EVA para 0,06/10EVA no subgrupo SCSA e 5,28/10 para 0,14/10 no subgrupo IGU), no aumento da função (28,57 para 0,66/100DASH e 39,00 para 0,63/100SAPDI no subgrupo SCSA e 25,80 para 0,38/100DASH e 28,19 para 0,39/100 no subgrupo IGU) e no aumento da ED da omoplata com normalização do padrão de recrutamento, controlo motor, PIO dentro do espectro de normalidade e boa capacidade de controlar a sua posição, ao longo do movimento do membro superior (MS). A intervenção proporcionou, ainda a normalização das AA’s, FM e autocorrecção postural. O tempo médio de intervenção foi de 6,45semanas no subgrupo SCSA e 5,83sem no subgrupo IGU. Estes resultados são semelhantes comparativamente a estudos que utilizaram uma intervenção baseada nos mesmos princípios (Matias e Cruz, 2004; Cunha e Matias, 2006; Santos e Matias, 2007; Rodrigues e Matias, 2009). Conclusão: O protocolo de intervenção aplicado, com uso de exercícios baseados nos princípios da ED e uso de BEMG, permitiu o alcance dos objectivos, junto de utentes com DCAO (SCSA e IGU). Verificou-se que, independentemente da condição, os resultados foram idênticos em ambos subgrupos, não apresentando diferenças significativas entre as variáveis de medida final, o tempo total de intervenção e os tempos até atingir os critérios de alta, expecto para a Dor, sendo este superior no subgrupo SCSA.---------------------------------------- ABSTRACT:Introduction: Movement disorders and pain in the shoulder joint complex (SJC) are common and debilitating. The use of exercises under the premises of dynamic stability (DS), with the aid of electromyographic biofeedback (EMGBF) has been mentioned as a way to increase the effectiveness of the intervention in disorders of the shoulder joint complex (DSJC) Main Objective: To evaluate the results of an intervention protocol, with EMGBF whose aims were to abolish the pain, increase functionality and DS of the scapula in patients with DSJC. Objectives: To compare the subgroups and the characteristics, outcomes, and total intervention times to reach discharge criteria; to compare the results at the beginning and at the end. Methods: We conducted a clinical cohort, longitudinal, retrospective, observational analysis. The sample consisted of 82 subjects, divided into two subgroups (n = 53 shoulder impingement syndrome SIS n = 29 shoulder joint instability SJI). The measurement instruments used were the VAS, DASH, SPADI, and EMGBF. It was followed the DS protocol proposed by Santos and Matias (2007), according to the three phases of intervention, described by performing a weekly session, monitoring exercises that follow these principles, with EMGBF. The variables were pain, posture, recruitment pattern, motor control, the initial position of the scapula (IPS), range of motion (ROM), muscular strength (MS) and posture. To analyze the data, we used the descriptive and inferential statistics. Results: The intervention was effective in abolishing the pain at the time (0.43 to 0.00/10 VAS in the SIS subgroup and 0.66 to 0.00/10 VAS in the SJI subgroup) in worst pain (5.47 to 0,06/10 VAS in the SIS subgroup and 5.28/ to 0.14/10 VAS in the SJI subgroup), increasing the function (28,57 to 0,66/100 DASH and 39,00 to 0,63/100 SAPDI in the SIS subgroup and 25,80 to 0,38/100 DASH and 28,19 to 0,39/100 SPADI in the SJI subgroup) and the increase in DS of the scapula with normalization of the pattern recruitment, motor control, IPS within the spectrum of normalcy and good ability to control its position along the movement of the upper limb (UL). The intervention provided, although the normalization of ROM, MS and self-correcting posture. The average length of intervention was 6.45 weeks in the SIS subgroup and 5.83 in the IS subgroup. These results are comparable with similar studies that used an intervention based on the same principles (Matias e Cruz, 2004; Cunha e Matias, 2006; Santos e Matias, 2007; Rodrigues e Matias, 2009). Conclusion: The intervention protocol implemented with the use of exercises based on the principles of DS and the use of EMGBF was effective, allowing the accomplishment of goals, in patients with DSJC (SIS and SJI). It was found that, regardless of condition, the results were identical in both groups, showing no significant differences between the variables of the final measure, the total time of intervention and the times to reach discharge criteria, except for pain, which was higher in the SIS subgroup.
Resumo:
O presente estudo teve como objetivos: (i) analisar as redes de suporte e experiências na comunidade estabelecidas no processo de transição para a vida pós escolar de alunos com necessidades adicionais de suporte - considerando o ponto de vista dos professores de educação especial e dos próprios; (ii) e explorar em que medida o perfil de necessidades de apoio providenciado pela Escala de Intensidade de Apoios (SIS-C), poderá basear planos de suportes que promovam respostas mais orientadas para a participação social – tendo por base o processo de dois dos jovens em circunstâncias de transição para a vida pós-escolar. Para o efeito, foi desenvolvida uma pesquisa por inquérito, obtendo resposta de 50 professores de educação especial a um questionário vocacionado para o mapeamento das redes de suporte e das experiências na comunidade no processo de transição. Foi também conduzido um estudo de caso, onde se procedeu à entrevista de 2 jovens, suas famílias e equipas de suporte, e à análise documental dos seus processos, a fim de aferir a utilidade da SIS-C no processo de planeamento das respostas educativas. Os resultados deste estudo indicam que as redes sociais de suporte no processo de transição são essencialmente compostas por elementos dos contextos familiar e escolar, com necessidade de ampliar o envolvimento da comunidade. A participação cívica, e o envolvimento em atividades de recreação (como visitar amigos, passear/ conviver) são também experiências em necessidade de expansão. No estudo de caso, a SIS-C possibilitou uma maior orientação dos processos de avaliação e intervenção para a participação, bem como, uma identificação mais ampla de estratégias ambientais a implementar