15 resultados para Azevém - análise - protocolo

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

40.00% 40.00%

Publicador:

Resumo:

O objetivo da pesquisa atém-se primeiramente em elaborar um protocolo que permita analisar, por meio de um conjunto de indicadores, o processo de reutilização de software no desenvolvimento de sistemas de informação modelando objetos de negócios. O protocolo concebido compõe-se de um modelo analítico e de grades de análise, a serem empregadas na classificação e tabulação dos dados obtidos empiricamente. Com vistas à validação inicial do protocolo de análise, realiza-se um estudo de caso. A investigação ocorre num dos primeiros e, no momento, maior projeto de fornecimento de elementos de software reutilizáveis destinados a negócios, o IBM SANFRANCISCO, bem como no primeiro projeto desenvolvido no Brasil com base no por ele disponibilizado, o sistema Apontamento Universal de Horas (TIME SHEET System). Quanto à aplicabilidade do protocolo na prática, este se mostra abrangente e adequado à compreensão do processo. Quanto aos resultados do estudo de caso, a análise dos dados revela uma situação em que as expectativas (dos pesquisadores) de reutilização de elementos de software orientadas a negócio eram superiores ao observado. Houve, entretanto, reutilização de elementos de baixo nível, que forneceram a infra-estrutura necessária para o desenvolvimento do projeto. Os resultados contextualizados diante das expectativas de reutilização (dos desenvolvedores) são positivos, na medida em que houve benefícios metodológicos e tecnológicos decorrentes da parceria realizada. Por outro lado, constatam-se alguns aspectos restritivos para o desenvolvedor de aplicativos, em virtude de escolhas arbitrárias realizadas pelo provedor de elementos reutilizáveis.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Objetivos: Descrever a opinião dos profissionais médicos que trabalham em unidades de atenção primária do Sistema Único de Saúde, dos municípios de Ponta Grossa – PR e Cuiabá - MT, com relação ao que estes apontam como importantes e, assim, compor a percepção destes profissionais sobre os conflitos e harmonias a que os protocolos clínicos usados na atenção primária estão expostos, quando levados para dentro da unidade. Método: Este trabalho é um estudo de caso do tipo levantamento realizado nos municípios de Ponta Grossa – PR e Cuiabá – MT, através de um questionário composto por perguntas abertas e fechadas. Resultados e Conclusões: As principais características apontadas pelos participantes são: Clareza nos passos a serem seguidos; Facilidade na consulta e compreensão; Capacidade da unidade em realizar as recomendações perante as demais atividades já existentes”; Vontade política do gestor em implantar o protocolo; Presença de mecanismos que permitam o acompanhamento e verificação da evolução do caso; Dificuldade em se mudar uma rotina que já existe há muito tempo no local; e Atividades econômicas do publico que será atendido. De acordo com as características os protocolos estão expostos a todos os conflitos dos Cs Cessantes, sendo, para os participantes, os mais importantes o Custo e o Cerceamento. Os cerceamentos mais citados são: Comportamentais, Tradicionais e Autoritários.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O vírus da anemia das galinhas (CAV) pode causar imunodepressão em galinhas de todas as idades e doença nos frangos jovens, a qual é caracterizada por severa anemia, atrofia da medula óssea e hemorragias. A doença clínica é rara hoje, porém a forma subclínica é freqüentemente encontrada em criações comerciais e resulta num considerável decréscimo do desempenho. O CAV apresenta variabilidade genética, entretanto, em relação às amostras brasileiras do CAV, pouco ou quase nada desta variabilidade é conhecida. O presente trabalho descreve um protocolo de Nested-PCR para a detecção do CAV diretamente de amostras clínicas e analisa filogeneticamente as seqüências nucleotídicas das amostras positivas buscando verificar se a patologia apresentada por estas está relacionada com a variabilidade genética. Para a extração de DNA, o método baseado em tiocianato de guanidina mostrou-se mais eficiente e prático de executar que os demais testados. Foi selecionado um par de primers que amplifica uma região de 664 pb do gene vp1 e outro par que amplifica uma região interna de 539 pb para a realização da Nested-PCR. A especificidade dos primers foi avaliada utilizando amostras de lotes controlados para CAV e 30 diferentes isolados de vírus e bactérias causadoras de doenças em galinhas, as quais não geraram produto de amplificação. A sensibilidade foi determinada a partir de diluições seriadas da vacina comercial para o CAV. A Nested-PCR mostrou ser mais sensível do que a PCR e foi capaz de detectar 0,16 DICC50% da cepa vacinal. Além disso, a Nested-PCR detectou DNA viral em tecidos, soro e cama aviária de lotes com e sem sintomas clínicos.O produto de amplificação de 539 pb do gene vp1 de 44 amostras, provenientes de diferentes Estados produtores de frangos do Brasil, foi seqüenciado e foram encontradas 10 novas seqüências nucleotídicas do CAV. Estas 10 seqüências nucleotídicas foram analisadas filogeneticamente pelo método de distância neighbour joining com 1000 replicações o qual, mostrou que não houve correlação entre a patogenia apresentada nos animais e os grupos genéticos. Estas seqüências nucleotídicas também foram comparadas com 30 cepas de CAV isoladas em outros países e não foi observada correlação entre a distribuição geográfica e a variabilidade genética. Substituições de amino ácidos foram observadas em 9 posições sendo que, 65R substituindo o resíduo Q e 98F substituindo o resíduo Y ainda não haviam sido observadas. Conclui-se que, como técnica de detecção do CAV, o protocolo de Nested-PCR aqui descrito é mais sensível e menos trabalhoso do que o isolamento viral. As amostras Brasileiras de CAV possuem características filogenéticas similares às isoladas em outros países.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As discrepâncias nos resultados de análises de materiais informados tanto pelo produtor quanto pelo consumidor são um problema comum na maioria das indústrias. Os contratos comerciais na indústria mineral normalmente penalizam o produtor quando uma determinada caraterística do minério exceder os limites estabelecidos. As diferenças nos resultados de análise são devidas a muitas formas de erro. Contratos rígidos impõem ao minerador o emprego de um rigoroso programa de controle de qualidade e nestas situações a amostragem possui um papel fundamental. Esta tese tem por objetivo propor um novo protocolo de amostragem e preparação de amostras que garanta a representatividade desejada pelas partes, produtor e consumidor. O estudo inicia fazendo-se uma abordagem qualitativa da amostragem, sendo enfocados os conceitos de representatividade e amostragem probabilística. É feita uma apresentação dos tipos de erros existentes em um protocolo amostral e são apresentados exemplos de problemas que ocorrem devido à falta de cuidado no dimensionamento e operação de amostradores e durante o processo de preparação da amostra. A seguir, é efetuada uma abordagem quantitativa da amostragem onde é apresentado o equacionamento matemático da teoria da amostragem de Gy. Tendo em vista as diferenças de resultados que usualmente ocorrem entre laboratórios é introduzida uma metodolo gia para a verificação da equidade destas determinações através do estudo de alguns casos. A definição do novo protocolo de amostragem foi baseada na teoria da amostragem de Gy. Para tanto, foi realizado o estudo de quatro casos com a finalidade de confirmar os princípios mais importantes da teoria da amostragem Nos ensaios foram realizadas a medição do erro total da amostragem em pilha e a verificação da existência de significância estatística deste erro em relação à disposição do carvão no depósito, foi realizada a verificação da significância do erro total na amostragem mecânica probabilística, a verificação das etapas mais críticas do processo de preparação de amostras, a determinação do erro de integração dos vários tipos de carvões testados e foi verificada a aplicabilidade da análise variográfica para a determinação do erro de integração. Os resultados encontrados mostraram a validade dos conceitos empregados pela teoria da amostragem e indicaram a impropriedade das normas brasileiras de amostragem e preparação de carvão, NBR 8291 e 8292, para garantir a representatividade da caracterização de um determinado lote de carvão. É proposto um novo protocolo de amostragem de carvão mineral, o qual leva em consideração a variabilidade das partículas componentes do lote e as formas de amostragem e preparação da amostra. Conclui-se que é possível dimensionar um sistema de controle de qualidade do carvão que seja capaz de estimar a precisão desejada e que garanta a representatividade do resultado acordada entre as partes. Por fim, é sugerida a modificação das normas brasileiras existentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A definição de um protocolo nacional com métodos de análise para caracterização física de substratos para plantas é um fator determinante para o desenvolvimento da indústria de substratos para plantas no Brasil. Como forma de contribuir para a construção desse protocolo, o presente trabalho avaliou a influência dos níveis de umidade das amostras e comparou os resultados de métodos utilizados para obtenção da densidade e de curvas de retenção de água. A influência do teor de umidade nas amostras foi também avaliada em relação a variação da impedância mecânica mensurada através de micropenetrômetro. Foram utilizados seis materiais, três tipos de turfa e três substratos comerciais de casca de pinus e vermiculita, inicialmente caracterizados física (densidade de volume úmida e seca, densidade de partícula e curva de retenção de água) e quimicamente (pH e salinidade) segundo o protocolo do Laboratório de Biotecnologia em Horticultura, do Departamento de Horticultura e Silvicultura, da Faculdade de Agronomia / UFRGS. Verificou-se que: quanto maior a umidade inicial presente na amostra maior a densidade final do substrato; os métodos para determinação da densidade da Indústria e do Comitê Europeu de Normatização equivalem entre si e diferem significativamente do método da UFRGS; os equipamentos para obtenção da curva de retenção de água apresentam resultados divergentes, sendo que o Funil de Büchner succiona mais água do que a Mesa de Tensão e os Cilindros de Pressão; a impedância mecânica aumenta conforme aumenta a densidade e a tensão da água na amostra.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As ataxias espinocerebelares (SCAs) constituem um grupo de doenças neurodegenerativas fatais que apresentam uma grande heterogeneidade clínica. A doença de Machado-Joseph (DMJ), ou ataxia espinocerebelar tipo 3 (SCA3), é causada por uma expansão de uma seqüência repetitiva CAG em um gene, denominado MJD1, localizado no braço longo do cromossomo 14, expansão codificadora de uma seqüência poliglutamínica constituinte da proteína ataxina 3. Indivíduos normais apresentam entre 12 a 41 repetições, enquanto indivíduos afetados apresentam 61 a 84 repetições CAGs neste gene. Este trabalho teve como objetivos principais a padronização de metodologias moleculares para o identificação e a quantificação do número de repetições CAG no gene responsável pela da DMJ. Um grupo de 112 pacientes, pertencentes a 77 famílias, com suspeita clínica de algum tipo de ataxia espinocerebelar foi avaliado no Hospital de Clínicas de Porto Alegre. Após a extração de DNA destes pacientes, este material foi amplificado por PCR utilizando oligonucleotídeos iniciadores específicos para a região de interesse e posterior transferência destes fragmentos (1) para uma membrana de nylon pelo método de Southern blot, visando ao estabelecimento de um protocolo não-radioativo para detectar a presença do alelo normal e/ou mutante; e (2) análise em gel de poliacrilamida para quantificação do número de repetições presentes no alelo mutante. As análises laboratoriais identificaram um total de 77 pacientes com uma expansão CAG no gene da MJD1. Considerando-se apenas indivíduos não relacionados, a freqüência encontrada foi de 61% (47 indivíduos). Os protocolos estabelecidos demonstraram-se bastante eficazes e sensíveis para o diagnóstico da DMJ e quantificação do alelo expandido da respectiva doença.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tecnologia de rede dominante em ambientes locais é ethernet. Sua ampla utilização e o aumento crescente nos requisitos impostos pelas aplicações são as principais razões para a evolução constante presenciada desde o surgimento deste tipo de rede simples e barata. Na busca por maior desempenho, configurações baseadas na disputa por um meio de transmissão compartilhado foram substituídas por topologias organizadas ao redor de switches e micro-segmentadas, ou seja, com canais de transmissão individuais para cada estação. Neste mesmo sentido, destacam-se os dispositivos de qualidade de serviço padronizados a partir de 1998, que permitem a diferenciação de tráfego prioritário. O uso desta tecnologia em ambientes de automação sempre foi refreado devido à imprevisibilidade do protocolo CSMA/CD. Entretanto, o uso de switched ethernet em conjunto com a priorização de tráfego representa um cenário bastante promissor para estas aplicações, pois ataca as duas fontes principais de indeterminismo: colisões e enfileiramento. Este trabalho procura avaliar esta estrutura em ambientes de controle distribuído, através de uma análise temporal determinística. Como resultado, propõe-se um modelo analítico de cálculo capaz de prever os valores máximos, médios e mínimos do atraso fim-a-fim observado nas comunicações de diferentes classes de tráfego. Durante a análise, outras métricas relevantes são investigadas como a variação no atraso (jitter) e a interferência entre classes de prioridades distintas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atualmente a crescente preocupação com a melhoria da qualidade de produtos e da segurança dos alimentos tem levado as instituições públicas e privadas ao desenvolvimento e a utilização de diversos sistemas e programas de qualidade. O sistema APPCC (Análise de Perigos e Pontos Críticos de Controle), além de regulamentado pelos órgãos oficiais de controle, tem se revelado como ferramenta básica do sistema moderno de gestão, precursora da garantia da qualidade. A exemplo de outros alimentos, se observa para o caso de erva-mate, uma grande preocupação com a segurança da mesma em relação à saúde dos consumidores. O presente trabalho, tem como objetivo propor um protocolo para a implementação do sistema APPCC, na cadeia agroindustrial da erva-mate. Para isto foi desenvolvida uma pesquisa descritiva em duas agroindústrias da região do Alto Uruguai Rio-grandense, onde se associou os conceitos de cadeia agroindustrial ao sistema APPCC. Os resultados apontam que a implantação do sistema APPCC na cadeia da erva-mate é possível, como já obtido com outras cadeias agroindustriais. Com o sistema APPCC pode-se obter: alto nível de segurança alimentar para o produto erva-mate; contribuição para redução de custos; consolidação da imagem e credibilidade tanto da empresa como do produto junto aos clientes; aumento da auto confiança e da satisfação das pessoas envolvidas no processo de produção. Espera-se que os conhecimentos gerados neste trabalho possam contribuir para a aplicação na elaboração de políticas para toda a cadeia agroindustrial da erva-mate, na formulação de estratégias empresariais e usa-lo como ferramenta gerencial para que possa melhorar a eficiência e eficácia desta cadeia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo geral deste estudo foi comparar adolescentes infratores e não infratores quanto a variáveis familiares que podem estar relacionadas ao desenvolvimento do comportamento infrator. Além disso, pretendeu-se investigar as variáveis preditoras da conduta infratora. Os sujeitos foram 311 adolescentes divididos em dois grupos. O primeiro grupo foi composto por 148 adolescentes do sexo masculino autores de atos infracionais, que estavam cumprindo medida sócio-educativa privativa de liberdade na Fase-RS. O segundo grupo foi constituído por 163 adolescentes que não cometeram atos infracionais, estudantes do Ensino Fundamental e Médio em escolas públicas de Porto Alegre. Os instrumentos utilizados foram uma entrevista estruturada, a Escala de Estilos Parentais e um protocolo para a análise dos prontuários dos adolescentes infratores. Os resultados indicaram a presença de diferenças significativas entre os grupos nas seguintes variáveis: configuração familiar; comportamento anti-social na família; número de irmãos; existência de conflitos na família; responsividade, exigência e intrusividade parental; práticas educativas parentais; e consumo de drogas pelos adolescentes. As análises descritivas permitiram a caracterização do comportamento infrator apresentado pelos jovens, incluindo aspectos como idade de cometimento do primeiro delito, motivações e tipo de delitos efetuados. Para investigar o valor preditivo das variáveis familiares e individuais sobre o comportamento infrator foi realizada a Análise de Regressão. Os resultados mostraram que as variáveis independentes (responsividade e exigência parentais; comportamento anti-social na família; número de irmãos; uso de drogas pelo adolescente; existência de conflitos na família e práticas educativas parentais) contribuíram para explicar 53% da variância do comportamento infrator. Examina-se o papel da família, em especial das práticas educativas, no desenvolvimento da conduta infratora, as limitações metodológicas para a investigação em adolescentes com as características dos que compõem a amostra e as implicações dos resultados encontrados para a implementação de políticas de prevenção e de tratamento destinados a essas famílias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante a evolução da comunicação, diversos fatores contribuíram para melhorar a qualidade dos sistemas computacionais (Hardware e Software) em um ambiente industrial, onde o fator desempenho é um dos pontos importantes a ser considerado em um projeto de automação industrial. Nos últimos vinte anos, surgiram diversas propostas de padronização de protocolos para automação industrial e aplicações de tempo real, cada qual com características e tempos de resposta diferentes. Um estudo detalhado sobre as características técnicas de controle de tempo é de extrema importância, visto que esses sistemas, muitas vezes são implementados em situações de missão crítica, nas quais o tempo de resposta é um fator crucial para a aplicação. Nesta dissertação, apresentamos as etapas de evolução das técnicas de controle de acesso ao barramento, culminando inicialmente com o surgimento da proposta do protocolo FIELDBUS e em seguida com a proposta alemã, o PROFIBUS. O principal objetivo deste trabalho é propor um modelo analítico para a realização de avaliação de desempenho em uma rede PROFIBUS. O trabalho apresenta uma descrição das características funcionais do protocolo, bem como uma descrição detalhada dos tempos de controle utilizado pelo protocolo para controle e supervisão da rede. Uma descrição dos experimentos e o cruzamento dos dados obtidos na simulação com os dados obtidos através do modelo analítico demonstram a razão pela qual os modelos analíticos é uma ferramenta de extrema importância devido a sua agilidade em estimar o desempenho de uma rede PROFIBUS. Palavras-chave: Avaliação de desempenho, automação industrial, redes de campo, protocolos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O módulo de resiliência (MR) é hoje um dos parâmetros-chave para o dimensionamento empírico-mecanístico de pavimentos flexíveis. Há, entretanto, algumas peculiaridades no ensaio de tração indireta com cargas cíclicas que ocasionam variações na sua determinação. A investigação de tais fatores é necessária para que a magnitude do seu efeito sobre o valor de MR seja quantificada. Para isto, esta pesquisa avaliou, através de uma análise paramétrica, os algoritmos apresentados pelo Protocolo P07 do LTPP, análogo ao método correntemente utilizado pelas instituições brasileiras de pesquisa em pavimentação, e pela pesquisa NCHRP 1-28/1-28A para determinação dos deslocamentos resilientes, bem como o efeito do pulso e freqüência de carregamento e níveis de tensão de tração (%RT) em duas misturas asfálticas: uma mistura com ligante asfáltico convencional e outra com ligante asfáltico modificado por adição de borracha. Foram necessárias adaptações no equipamento de compressão diametral cíclica utilizado na pesquisa, e também a montagem de um sistema de posicionamento de sensores que permitisse a gravação de deslocamentos horizontais e verticais viabilizando a determinação do coeficiente do Poisson. Realizaram-se ensaios de MR e resistência à tração (RT) às temperaturas de 10°, 25° e 35°C e, complementarmente, ensaio de fadiga (tensão controlada) a 25°C. Os resultados obtidos demonstram a alta sensibilidade do valor de MR aos algoritmos de cálculo dos deslocamentos resilientes; o algoritmo apresentado pela pesquisa 1-28/ 1-28A do NCHRP foi considerado adequado. Observou-se a dependência do MR ao pulso de carga, à freqüência de ensaio e também ao nível de tensão aplicado durante o ensaio. A magnitude desta dependência, entretanto, é função do tipo de mistura e da temperatura sob a qual o ensaio foi realizado. A determinação do coeficiente de Poisson pareceu ser bastante suscetível ao sistema de medição utilizado, tendo apresentando uma grande variabilidade. Nos ensaios de vida de fadiga sob tensão controlada pode-se evidenciar a redução dos valores de MR dentro da zona de condicionamento. Propõe-se ainda que a defasagem medida entre o pulso de carga e o pulso de deslocamento no ensaio de MR, possa ser usada como indicador do comportamento visco-elástico das misturas, uma vez que apresentou comportamento análogo ao do ângulo de fase.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O exercício físico é constantemente utilizado como coadjuvante em tratamentos de saúde, funcionais ou até mesmo estéticos. Normalmente prescrito em séries múltiplas, o treinamento de musculação, a partir da década de 90, passou a ser praticado também em séries simples, com iguais objetivos de hipertrofia e desempenho físico. Entretanto, a melhor aptidão de saúde também passou a ganhar uma forte atenção, em especial para benefícios cardiovasculares e metabólicos. O exercício físico é uma forma de estresse celular, uma vez que incrementa o metabolismo oxidativo e proporciona a geração de espécies ativas do oxigênio que podem causar lesão celular dependendo da intensidade e duração da atividade física. Proteínas de choque térmico (HSP) são proteínas expressas universalmente nas células sob condições de estresse, como choque térmico, privação de glicose e exposição a agentes indutores de estresse oxidativo, como espécies ativas do oxigênio. Estes fatos justificam a expressão de HSP, particularmente da família de 70 kDa (HSP70), no tecido muscular após o exercício físico. Já a adaptação ao exercício físico reduz a expressão de HSP70 no músculo enquanto que indivíduos treinados mostram redução na expressão de HSP70 em leucócitos circulantes. Desta forma, investigamos, neste trabalho, a expressão da HSP70 em leucócitos circulantes de indivíduos submetidos a diferentes seriações em comparação com a funcionalidade do sistema imunológico e o estresse oxidativo induzido por este treinamento. Comparamos ainda, o desempenho físico e a composição corporal nas diferentes seriações, e correlacionamos os resultados de composição corporal com o perfil lipídico dos participantes Voluntários adultos saudáveis foram treinados 3 vezes por semana a 75% da carga máxima (CM) em séries simples (SS) ou múltiplas (SM), por 12 semanas com incremento de carga a cada 4 semanas. Os indivíduos foram avaliados antes, durante e ao final do protocolo de treinamento. Foram avaliados a composição corporal, a força e a resistência muscular, o perfil lipídico, estresse oxidativo, a expressão de HSP70 e o perfil imunológico. Ao final das 12 semanas de treinamento o grupo SS melhorou a composição corporal, a resistência muscular, e o perfil lipídico. Durante o desenvolvimento do treinamento observou-se contínua melhora do estresse oxidativo e do perfil imunológico no grupo SS e melhora no perfil imunológico do grupo SM, sendo que o grupo SS obteve melhor desempenho imunológico que o SM. Quanto à indução de HSP70, observou-se que o grupo SS não induziu maior expressão, enquanto que, o grupo SM aumentou a expressão de HSP70. Desta forma, na intensidade e período utilizados para o treinamento, o grupo SS mostrou ser mais eficiente que o grupo SM para os parâmetros avaliados, incluindo melhora no perfil imunológico.