78 resultados para Exames de alta complexidade
Resumo:
O presente estudo desenvolve-se numa perspectiva prática, visando à integração de conhecimentos gerados pela pesquisa a atividades assistenciais no hospital geral universitário, dirigindo-se, especificamente, à questão da detecção da depressão. A depressão é um problema de saúde pública no mundo inteiro, transtorno mental de alta prevalência, com elevado custo para os sistemas de saúde. Entre pacientes clínicos e cirúrgicos, hospitalizados, aumenta a complexidade dos tratamentos, implica maior morbidade e mortalidade, importando também no aumento do tempo e dos custos das internações. Por outro lado, a depressão é subdiagnosticada. Este estudo, originado de um projeto cujo objetivo foi criar um instrumento para a detecção de depressão, utilizável na rotina assistencial, a partir da avaliação do desempenho de escalas de rastreamento já existentes, desdobra-se em três artigos. O primeiro, já aceito para publicação em revista indexada internacionalmente, é a retomada de estudos anteriores, realizados no final da década de 1980. É apresentada a comparação da detecção de depressão, realizada por médicos não-psiquiatras e por enfermeiros, no Hospital de Clínicas de Porto Alegre (HCPA), em 1987 e em 2002. O segundo artigo apresenta o processo de construção da nova escala, a partir da seleção de itens de outras escalas já validadas, utilizando modelos logísticos de Rasch. A nova escala, composta por apenas seis itens, exige menos tempo para sua aplicação. O terceiro artigo é um estudo de avaliação de desempenho da nova escala, denominada Escala de Depressão em Hospital Geral (EDHG), realizado em uma outra amostra de pacientes adultos clínicos e cirúrgicos internados no HCPA. O segundo e terceiro artigos já foram encaminhados para publicação internacional. Esses estudos, realizados em unidades de internação clínicas e cirúrgicas do Hospital de Clínicas de Porto Alegre, permitiram as seguintes conclusões: a) comparando-se os achados de 1987 com os de 2002, a prevalência de depressão e o seu diagnóstico, em pacientes adultos clínicos e cirúrgicos internados, mantêm-se nos mesmos níveis; b) foi possível selecionar um conjunto de seis itens, que constituíram a nova Escala de Depressão em Hospital Geral (EDHG), baseando-se no desempenho individual de cada um dos 48 itens componentes de outras três escalas (BDI, CESD e HADS); c) a EDHG apresentou desempenho semelhante aos das escalas que lhe deram origem, usando o PRIME-MD como padrão-ouro, com a vantagem de ter um pequeno número de itens, podendo constituir-se num dispositivo de alerta para detecção de depressão na rotina de hospital geral.
Resumo:
Trata-se de um estudo epidemiológico, contemplando uma pesquisa de cunho descritivoexploratório, observacional de coorte prospectivo, para caracterizar as pessoas idosas em condição de alta hospitalar e associar tais características com o desfecho de rehospitalização, no primeiro e terceiro mês após a alta hospitalar. Foram coletados dados de 164 pessoas idosas, no período de junho a setembro de 2003, no hospital universitário público, no município de Porto Alegre. Os fatores de risco para rehospitalização do idoso, no primeiro mês após a alta hospitalar, foram: o grupo de causas de neoplasias (tumores), permanência hospitalar, hospitalização prévia nos últimos doze meses e o sexo masculino do cuidador. No terceiro mês, os fatores de risco para rehospitalização foram os mesmos do primeiro mês, exceto a permanência hospitalar. Os resultados da investigação fornecem subsídios para o planejamento de Programas de Atenção à Saúde do Idoso, do contexto hospitalar ao comunitário. Recomenda-se a adoção de atividades voltadas para educação em saúde, durante a internação hospitalar, com o propósito de otimizar a assistência, diminuir as rehospitalizações e promover a qualidade de vida do idoso e de sua família.
Supressão de J/[psi] em processos próton-núcleo e núcleo-núcleo devido aos efeitos de alta densidade
Resumo:
A supressão da produção do méson J/Ψ em colisões de íons pesados tem sido apontada como um sinal da formação de um estado desconfinado da matéria - o Plasma de Quarks e Glúons. Este sinal, por em, não e inequívoco e muitos modelos, que não assumem a formação do plasma, podem descrever igualmente bem os resultados da colaboração NA50, no CERN, que apontou uma supressão anômala, não explicada pela absorção nuclear, nas colisões mais centrais entre íons de chumbo. De modo geral, estes modelos, considerando ou não a formação do plasma, procuram explicar os resultados experimentais através de mecanismos que causam a supressão no estado final da colisão, isto e, mecanismos que agem sobre as partículas produzidas na colisão. Por outro lado, para núcleos pesados e em processos envolvendo altas energias, as distribuições partônicas nucleares são alteradas em relação as distribuições para nucleons livres. Estas alterações ocorrem devido ao fato das dimensões do nucleon serem um limite geométrico para o crescimento das distribuições - seu vínculo de unitariedade - pois o meio nuclear, em altas energias, apresenta uma alta densidade partônica. A existência deste vínculo de unitariedade requer modificações das distribuições partônicas, o que deve ser considerado nos cálculos das seções de choque nucleares. Tais modificações afetam a produção de hádrons no estado final, diminuindo sua taxa de produção. Nesse trabalho, investigamos a inclusão dos efeitos de alta densidade nas distribuições partônicas para o tratamento da supressão de J/Ψ em colisões envolvendo alvos nucleares. Estes efeitos são decorrentes do aumento da distribuição de glúions na região de pequeno x (altas energias). A evolução DGLAP, que considera apenas a emissão de pártons, prevê um crescimento ilimitado da distribuição de glúons nesta região, quebrando assim o vínculo da unitariedade. Por isso, o mecanismo de recombinação partônica passa a contribuir para restaurar a unitariedade. Estes efeitos de recombinação, basicamente, são tratados como os efeitos de alta densidade referidos nesse trabalho, alterando as distribuições partônicas nucleares. Utilizamos processos próton-núcleo para estimar a magnitude destes efeitos, uma vez que estes processos não apresentam um meio nuclear tão denso quanto o proporcionado por colisões núcleo-núcleo. Esta premissa torna os processos próton-núcleo testes mais confiaveis para a investigação dos efeitos de alta densidade. Analisamos em especial a razão entre as taxas de produção do méson J/Ψ e do par de léptons, via processo Drell- Yan, uma vez que este observável e utilizado para apontar a supressão na produção de J/Ψ . Estendemos esta análise para processos núcleo-núcleo, onde novos mecanismos de supressão, entre eles a formação do Plasma de Quarks e Glúons são esperados. Os resultados aqui apresentados mostram que a inclusão dos efeitos de alta densidade introduz uma supressão adicional na produção de J/Ψ , que se torna mais significativa com o aumento da energia do processo. Nossa conclusão e, portanto, que estes efeitos devem ser incorporados na análise deste sinal em experimentos realizados em RHIC e LHC.
Resumo:
A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).
Resumo:
O agronegócio da soja, caracterizado como investimento em atividade produtiva, envolve problemas de incertezas com o comprometimento definitivo de recursos, com a impossibilidade de reverter decisões tomadas e, também, com o esforço de prever a renda a ser obtida com a colheita. A questão relevante para o sojicultor é como avaliar o rendimento esperado de grãos em um contexto de incertezas, base para o cômputo da taxa de retorno do investimento na produção de soja. Este trabalho teve como objetivo estabelecer uma metodologia que associa um modelo estocástico de precipitação a um modelo de predição do rendimento da cultura de grãos de modo a permitir a atribuição de probabilidades aos rendimentos esperados de soja. Foram utilizados dados meteorológicos diários referentes à precipitação pluvial, temperatura máxima, mínima e média do ar, umidade relativa do ar, radiação solar global e velocidade do vento a 2 metros, bem como o rendimento de soja de Cruz Alta(RS) do período 1/1/1975-31/12/1997 A precipitação pluvial diária foi ajustada à cadeia de Markov de primeira ordem e dois estados e na função gama com variação sazonal para os meses de outubro a abril. Os resultados indicaram que a metodologia associando a geração de séries de precipitação pluvial, evapotranspiração da soja e evapotranspiração real, aplicadas como variáveis de entrada no modelo de predição do rendimento de grãos, possibilitou a definição da densidade de probabilidade do rendimento esperado de soja e, por conseguinte, a quantificação do risco na forma da distribuição de probabilidade acumulada do rendimento. O risco de ocorrência de um valor de rendimento de soja, menor que um valor mínimo de aceitação, quantiifcado pela sua distribuição de probabilidade acumulada, fundamentada em um fenômeno da natureza - a precipitação pluvial - que não depende da vontade humana. A obtenção do rendimento desejado envolve um processo que depende de organização, isto é, depende de fatores subjetivos, de decisões e escolhas. Enfim, um processo que comporta alternativas e depende de iniciativas humanas.
Resumo:
o estudo da relação entre a complexidade do conhecimento e sua construção no ambiente escolar apóia-se na Epistemologia Genética e no paradigma da complexidade. A investigação se delineou como um estudo qualitativo, inspirado na metodologia de Estudo de Caso. O problema de pesquisa procurou indagar a repercussão da fragmentação dos conteúdos programáticos em disciplinas nos anos finais do Ensino Fundamental. Os dados foram coletados através de múltiplas fontes de evidência. Realizaram-se entrevistas, inspiradas na abordagem clínica piagetiana, com alunos e professores; - observações diretas do tipo participante como observador e análise documental. Os dados coletados indicam que as práticas escolares apresentam pressupostos epistemológicos e paradigmáticos que se apóiam no senso comum e estendem-se em métodos empiristas/aprioristas e reducionistas. O pensamento do aluno é manipulado de forma a se enquadrar ao modelo escolar. A fala é reduzida a uma mera ação prática, pois, embora exercida, o professor desconsidera a importância do diálogo. Por sua vez, os exercícios apresentam-se como dois lados de uma mesma moeda. Podem manifestar-se como promotores de técnicas empiristas, quando colocados sob a forma de repetição para a memorização. Todavia, podem se revelar como um recurso extremamente valioso quando colocam um problema, apresentam desafios e permitem a testagem de hipóteses do sujeito. Já os conteúdos programáticos visam a uma eterna diferenciação do objeto de estudo, a qual se configura como uma simples fragmentação capaz de eliminar qualquer dimensão do conhecimento enquanto totalidade. O tempo da aprendizagem acaba por se igualar com aquele que o professor gasta para expor a informação ao aluno. Isso o relega a uma posição passiva que retira o caráter de equilíbrio dinâmico do conhecimento, pois esse sempre se apresenta como um produto pronto e acabado. A escola, então, tem um desconhecimento do próprio conhecimento e o senso comum, que é empirista/apriorista no campo epistemológico, é reducionista em sua dimensão paradigmática.
Resumo:
O genoma das células eucarióticas é um dos principais alvos para danos induzidos por inúmeros fatores ambientes, sejam estes de origem biótica ou abiótica. Considerando a complexidade da molécula de DNA, não é supreendente que existam diferentes tipos de lesões com os mais variados graus de severidade. Dentre todas as lesões que podem ser induzidas no DNA, as pontes intercadeias (ICLs) estão entre as mais graves. Se não forem reparadas, a presença de apenas um ICL pode ser letal para a célula. Além disso, as lesões do tipo ICLs são quimicamente heterogêneas, podendo modificar a estrutura do DNA de forma permanente ou temporária. Os mecanismos relacionados à reparação de ICLs ainda são pouco conhecidos em eucariotos. Apesar de várias proteínas terem sido descritas como essenciais ao processo, não há um modelo único que explique esta reparação. Contudo, dentre as diferentes proteínas que participam na reparação de ICLs, destacam-se as nucleases Pso2/Snm1. A forma de atuação das proteínas Pso2/Snm1 não é conhecida, mas inúmeros dados obtidos com mutantes de Saccharomyces cerevisiae e, recentemente, com células de mamífero, mostram que a ausência de Pso2p/Snm1p bloqueia a restituição do DNA de alta massa molecular. Por outro lado, tem sido mostrado que o Pso2p/Snm1p provavelmente atua na manutenção da cromatina, mas de uma forma ainda não completamente esclarecida. Uma das proteínas pertencentes à família Pso2p/Snm1p, Ártemis, possui um papel importante no desenvolvimento do sistema imunológico adaptativo de metazoários e parece ser essencial para outros processos relacionados ao metabolismo de DNA eucariótico. Desta maneira, este trabalho teve como objetivo principal o estudo da família Pso2p/Snm1p por meio da análise filogenética e de seqüências, comparando-a com proteínas homólogas já descritas em outros organismos. Além disso, esta comparação XVII permitiu estabelecer uma correlação funcional entre as proteínas em termos de reparação de DNA e manutenção da cromatina eucariótica. As análises de filogenia e de seqüências claramente demonstraram que as proteínas Pso2/Snm1 podem ser agrupadas em quatro grupos principais ao invés de três, ao contrário do que se conhecia previamente. Três destes grupos, por sua vez, são formados por subgrupos específicos, que possivelmente atuam de forma diferenciada na reparação de DNA, na manutenção da cromatina e na geração de diversidade biológica. Por outro lado, os estudos das seqüências Pso2/Snm1, baseados principalmente na técnica de análises de agrupamentos hidrofóbicos (HCA), revelaram um alto grau de similaridade de estruturas primárias e secundárias entre os diferentes grupos, um indicativo da importância estrutural para a função destas proteínas no metabolismo de DNA. A técnica de HCA permitiu mapear regiões conservadas (CRs) em todas as seqüências estudadas, compondo o chamado domínio Pso2p/Snm1p. Em alguns casos, o domínio Pso2p/Snm1p encontra-se fusionado a outros domínios catalíticos. Neste caso, destaca-se o estudo de uma nova família de DNA ligases dependentes de ATP que são exclusivas de plantas. Esta nova família, denominada de Lig6p, parece ter funções importantes no metabolismo do DNA de plantas, sendo esta a primeira DNA ligase eucariótica com função nucleásica identificada. Usando os dados obtidos neste trabalho em conjunto com os resultados de outros autores, é sugerido um possível modo de atuação das proteínas Pso2p/Snm1p na reparação de danos do tipo ICL, na manutenção da cromatina e na geração de diversidade biológica.
Resumo:
Um programa de preparo de alta hospitalar, enquanto uma estratégia de Educação em Saúde, pode contribuir para que a família ou o idoso possam dar continuidade aos cuidados no contexto domiciliar, após a alta hospitalar. Assim, este estudo de caráter qualitativo descritivo objetiva analisar a percepção que tem o cuidador familiar de idosos com Acidente Vascular Cerebral (AVC) em relação ao Programa de preparo de alta para o paciente com seqüelas neurológicas de um Hospital Universitário. Após aprovação pelo Comitê de Ética e Pesquisa da instituição onde foi desenvolvido o presente estudo, foram entrevistados 12 cuidadores familiares de 9 idosos que participaram de tal Programa. As entrevistas foram transcritas e seu conteúdo foi analisado conforme a técnica de análise de conteúdo, emergindo quatro categorias: opinião sobre o programa, adequação das orientações às demandas de cuidados, pontos de melhoria e repercussões do ser cuidador. Assim, sugere-se a implantação de programas similares nos serviços de saúde, bem como o desenvolvimento de estratégias educativas em saúde que contemplem o idoso com AVC e sua família.
Resumo:
Este trabalho pretendeu minimizar a incerteza na tomada de decisões para projetos mais sustentáveis de intervenção em assentamentos precários. Para sua realização foi utilizada a estratégia de estudo de caso, optando-se pela escolha de um único estudo, na ilha Grande dos Marinheiros, aliada ao uso do método baseado em dados (Grounded Theory), como método para organização das informações coletadas. O estudo utilizou esta metodologia de análise sistêmica, que permitiu verificar as interinfluências entre os diversos aspectos apresentados pelo sítio (aspectos ecológicos do meio ambiente, aliados ao processo antrópico de alteração do habitat). Isto resulta na definição de categorias e subcategorias e seus cruzamentos, através de um sistema de matrizes, levou a constatação da categoria central. Assim, o abastecimento de água foi considerado como o tópico que deveria ser priorizado no processo de tomada de decisões. O sistema de cruzamento sistêmico também permitiu a criação de uma linha mestra (eixo principal) a ser utilizada na definição de futuros projetos de intervenção urbanohabitacional, que mostrou as dificuldades no abastecimento de água e as conseqüências advindas de sua estruturação. Ao final do trabalho, constataram-se as seguintes contribuições: não se recomenda a estruturação do transporte viário, o uso de energia eólica, hidroelétrica ou biomassa e estruturação de redes de distribuição de água entre continente e ilhas. Por outro lado, o estudo salienta as seguintes oportunidades: o saneamento deficitário possibilita a introdução de alternativas diferenciadas, como a utilização de banheiros secos e geração de biogás. As facilidades de obtenção das águas de chuva e a possibilidade real de melhora das águas superficiais devem ser opções preferenciais no abastecimento de água e a estruturação de um sistema de transporte fluvial (coletivo e individual) entre ilhas e continente.
Resumo:
Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
O presente estudo visa, a partir de uma noção dos componentes da sustentabilidade, aliada ao paradigma moriniano da complexidade e dos pressupostos da teoria neoinstitucional, analisar o papel do Programa Pró-Guaíba na estruturação de um campo organizacional sustentável. Para isso, buscou-se na análise do conteúdo de evidências empíricas, obtidas em fontes de dados primárias (entrevistas em profundidade) e secundárias (pesquisa documental), elementos que propiciassem uma melhor compreensão dos principais aspectos subjacentes a essa questão. Assim, o conceito de sustentabilidade proposto pelo Programa pôde ser melhor evidenciado possibilitando a sua avaliação, tanto no âmbito dos Subprogramas, como na análise do Programa como um todo. Da mesma forma, o arcabouço teórico adequado à compreensão do papel do Programa Pró-Guaíba na estruturação do campo organizacional foi desenvolvido propiciando, uma perspectiva complexificada dos processos institucionais, assim como, uma solução alternativa aos paradoxos da abordagem neoinstitucionalista. Assim, os aspectos que confirmam a estruturação do campo organizacional em decorrência das ações do Programa são evidenciados, contudo, não como um “fato dado como certo” como pressupõe alguns autores da análise neoinstitucional, mas como elementos que compõem um “campo organizacional ativo”, concebido dialogicamente a partir de interações que integram a unidade complexa Programa/campo/sustentabilidade a qual, por sua vez, institucionaliza/desinstitucionaliza recursiva e retroativamente os componentes do sistema por intermédio de processos complexos e dialógicos de adaptação e seleção, de forma a aumentar suas perspectivas de permanência e sobrevivência na ecoorganização mais ampla da qual faz parte.
Resumo:
É bem documentada na literatura a alta incidência de lesões mioarticulares em corredores; e um método atrativo de treinamento desenvolvido não só para complementar a corrida em terra, mas até mesmo para substituí-la é a corrida em piscina funda. É uma modalidade que além de melhorar a capacidade aeróbia, não oferece riscos de traumas ortopédicos devido à menor incidência de estresse mioarticular e auxilia durante o processo de recuperação de lesões de membro inferior. Este estudo teve por objetivo avaliar e comparar a ocorrência de lesão muscular e o comportamento do consumo máximo de oxigênio (VO2máx) entre um programa de treinamento de corrida em terra (CT) e um programa de treinamento de corrida em piscina funda (CPF), em indivíduos não-treinados. Os sujeitos foram divididos em dois grupos experimentais: CT e CPF. Os programas de treinamento foram realizados durante 12 semanas, sendo a intensidade do treinamento avaliada a partir da sensação subjetiva ao esforço. Analisou-se o comportamento do VO2máx pré e pós-treinamento. Para a análise de lesão muscular, utilizaram-se a concentração sangüínea de creatina quinase (CK) e a ultra-sonografia (US) na região dos isquiostibiais, em vários momentos do treinamento. Para a determinação da CK entre as medidas de cada coleta e entre os grupos experimentais, foi utilizado o teste estatístico ANOVA two-way com medidas repetidas; e, para análise do comportamento da CK entre as quatro coletas e entre os grupos experimentais, foi utilizada ANOVA two-way com medidas repetidas. O post-hoc de Bonferroni foi realizado quando havia diferença estatisticamente significativa. Para o VO2máx em cada grupo experimental, foi utilizado o Teste t de Student para amostras pareadas; e, para comparação entre os grupos, foi realizado ANOVA two-way com medidas repetidas; e novamente o post-hoc de Bonferroni foi realizado quando havia diferença estatisticamente significativa Para análise dos dados de US, foi utilizado o teste estatístico de Cochran’s Q. O nível de significância aceito foi de 5% (p < 0,05). Quando se analisou o comportamento do VO2máx para os grupos CPF e CT, verificou-se que houve diferença estatisticamente significativa entre os valores pré e pós-treinamento, mas não houve diferença entre os grupos experimentais. Quanto à CK, após a análise dos dados da coleta 1, verificou-se diferença estatisticamente significativa entre os grupos experimentais na medida 24 h após a sessão de treinamento, o que não foi verificado nas outras coletas, em que não houve diferença entre os grupos experimentais em nenhum momento. Para o grupo CT, somente nas coletas 2 e 4 verificou-se diferença estatisticamente significativa entre as medidas 24h após e 48h após a sessão de treinamento. Nas análises entre as medidas pré, pós, 24h após e 48h após nas diferentes coletas, não ocorreram diferenças significativas entre as medidas e nem entre os grupos experimentais. Quanto à US, tanto no grupo CPF quanto no CT, não houve diferença significativa entre os exames, mas foi no grupo CT que apareceram duas lesões na terceira coleta. Concluiu-se que as duas modalidades de treinamento proporcionam uma melhora na aptidão cardiorrespiratória dos sujeitos; e, embora não tenha ocorrido diferença significativa em algumas coletas de CK entre os grupos de treinamento, a corrida em terra provocou maiores níveis de aumento na concentração sangüínea de CK do que a corrida em piscina funda, sugerindo que o meio líquido pode ser o mais indicado para proteger o sistema musculoesquelético.
Resumo:
Na tentativa de produzir componentes cada vez mais leves e seguros a industria automotiva vem continuamente atualizando seus produtos no que diz respeito à associação de materiais, uso de uniões por solda, utilização de ligas leves em substituição de ligas de aço e etc. Três são os motivos básicos para estas mudanças: aumento da segurança dos passageiros, diminuição do consumo de combustível e redução os custos de produção. As ligas de alumínio, em sua maioria desenvolvidas para uso em tecnologia aeronáutica, vêm ganhando espaço também na produção de automóveis de passeio. Um dos maiores problemas apresentados pelas ligas de alumínio é a baixa soldabilidade dificultando a produção de componentes como os conhecidos Tailor Welded Blanks (TWB). TWB consiste em unir através de solda materiais de espessura e ou propriedades mecânicas diferentes formando uma geratriz para posterior estampagem de um componente Este trabalho inova confeccionando juntas a partir de chapas de espessuras diferentes (TWB) através de soldagem por fricção e mistura mecânica (SFMM) a partir de ligas de alumínio com velocidades de soldagem convencionais (1m/min) e em altas velocidades atingindo 5 e 10m/min dependendo da liga. Duas ligas de alumínio foram utilizadas, AA5754 (não tratável termicamente) e AA6181 (tratável termicamente). Foram realizados ensaios metalográficos, perfis de microdureza, ensaios de tração. Foram realizados também ensaios para levantamento de curvas limite de conformação através de ensaios de tração em corpos de prova etalhados e ensaios de estampabilidade. Os resultados mostram que o processo SFMM é adequado para soldas de espessuras diferentes em altas velocidades. Os ensaios de microdureza não apresentam as típicas variações observadas em processos de soldagem convencional, os testes mecânicos apresentam bons resultados, especialmente paras as juntas da liga AA6181 que em ambas as condições de soldagem apresentaram valores de tensão próximos aos valores do material de base. Os testes de estampagem mostram que as juntas da liga AA5754 apresentam desempenho superior ao material de base quando conformadas, desta forma provando que essa técnica pode ser utilizada para fabricação de geratrizes para estampagem de componentes.