953 resultados para Interpolação estatística
Resumo:
O cultivo de citros no Brasil tem sido assolado por diversos problemas, como pragas e doenças; entre as últimas, uma das mais importantes e que tem chegado a limitar a cultura, está a pinta preta, causada por Guignardia citricarpa Kiely; que provoca diminuição do tamanho dos frutos, manchas na casca e queda precoce. É de vital importância conhecer a epidemiologia desta doença nas condições locais, para tentativa de controle mais eficiente, principalmente em pomares sob manejo orgânico, nos quais não são utilizados insumos químicos industriais. Com este trabalho, objetivou-se identificar e comparar a incidência e a severidade da doença dentro e entre pomares da bergamoteira ‘Montenegrina’ (Citrus deliciosa Tenore) e tangor ‘Murcott’ (C. reticulata Blanco x C. sinensis Osbeck), a relação entre a severidade e a queda precoce dos frutos; a variação na produção de esporos e a relação de todos estes, com fatores climáticos. Os dados foram coletados entre agosto de 2001 e setembro de 2002, no município de Montenegro, RS, através da contagem direta de todos os frutos das plantas amostradas e, em laboratório, contou-se o número de lesões e seus diâmetros por fruto. Os índices de incidência e severidade da doença foram confrontados com fatores meteorológicos, avaliando-se as implicações no aumento da doença e na queda de frutos. O início dos sintomas deu-se em fevereiro para Murcott e, em março para Montenegrina, agravando-se progressivamente, atingindo valores máximos próximo à colheita. A análise estatística dos dados obtidos mostrou que o número de lesões difere dentro e entre cultivares, mas seus tamanhos parecem ser independentes. A severidade foi relacionada à queda de frutos em Montenegrina, mas não ocorrendo o mesmo em Murcott. Os resultados não evidenciaram influências da umidade relativa do ar, mas temperaturas médias e precipitação pareceram ter relação com o aumento da incidência e da severidade para ambas as cultivares.
Resumo:
Esta dissertação analisa a evolução da irregularidade longitudinal de pavimentos, devida à execução de recapes em concreto asfáltico. Consideraram-se nove trechos de rodovias, totalizando aproximadamente 265 km, com estruturas representativas da malha viária do Estado do Rio Grande do Sul. Registraram-se irregularidades antes e após o recape, e as reduções medidas foram comparadas com valores previstos pelos modelos linear e bilinear propostos pelo programa HDM-4 do Banco Mundial. As diferenças entre reduções previstas e medidas alertaram para a necessidade de ajuste dos modelos em alguns casos, levando em conta as estruturas dos pavimentos e as espessuras de recape analisadas. Propõe-se nesta dissertação valores para os parâmetros ajustáveis dos modelos, com cuja aplicação foram minimizadas as diferenças entre as reduções medidas e previstas. De forma complementar, desenvolveu-se um estudo de sensibilidade para determinar o efeito que as diferenças, por ventura existentes, entre espessuras projetadas e executadas de recape poderiam ter na redução da irregularidade. Também, por meio de uma análise estatística, obteve-se um modelo para previsão da redução da irregularidade em função da espessura do recape e da irregularidade anterior à execução do mesmo.
Resumo:
A mortalidade dos pacientes diabéticos, quando iniciam tratamento hemodialítico, ainda é muito elevada, significativamente maior do que a dos pacientes não diabéticos. As doenças cardíacas são a principal causa de morte nestes pacientes. O diabetes, por si só, está associado a uma alta prevalência de hipertensão, doença cardiovascular e insuficiência cardíaca, resultando em morbi-mortalidade significativas. Tradicionalmente, a mortalidade tem sido associada à cardiopatia isquêmica. A mortalidade cardiovascular, entretanto, não está relacionada apenas à isquemia, mas também à insuficiência cardíaca e à morte súbita. O objetivo deste estudo foi analisar o papel da doença cardiovascular como fator prognóstico para a morte de pacientes diabéticos e não diabéticos, que iniciam hemodiálise, levando em consideração outros fatores. Este foi um estudo prospectivo de uma coorte de 40 pacientes diabéticos e 28 não diabéticos, que iniciaram programa de hemodiálise, de agosto de 1996 a junho de 1999, em 5 hospitais de Porto Alegre, Brasil. O tempo total de acompanhamento foi de 4,25 anos. A avaliação inicial, realizada entre o 20 e o 30 mês de hemodiálise, incluiu: um questionário com características demográficas, história do diabetes e suas complicações, história de hipertensão e acidente vascular cerebral; o exame físico incluindo avaliação nutricional e exame oftalmológico; e avaliação laboratorial com medidas de parâmetros nutricionais, bioquímicos, hormonais, perfil lipídico, e controle metabólico do diabetes, além da avaliação da adequação da diálise. Para a avaliação cardiovascular foram utilizados: questionário Rose, ECG em repouso, cintilografia em repouso e sob dipiridamol, e ecocardiograma bi-dimensional e com Doppler. A mortalidade foi analisada ao final dos 51 meses, e as causas de morte, definidas pelos registros médicos, atestados de óbito ou informações do médico assistente ou familiar. Na análise estatística, foram empregados o teste t de Student, o qui-quadrado (χ2) ou teste exato de Fisher. Para a análise da sobrevida, o método de Kaplan-Meier foi utilizado, e, para identificar os principais fatores associados à mortalidade, construiu-se um modelo de regressão múltipla de Cox. O nÍvel de significância adotado foi de 5%. Ao final do estudo, os pacientes diabéticos tiveram um índice de mortalidade significativamente mais elevado do que os pacientes sem diabetes (47,5% vs. 7,1%; P=0,0013, log rank test). Na análise de Cox, o padrão pseudonormal ou restritivo de disfunção diastólica esteve associado a um risco de 3,2 (IC 95%:1,2-8,8; P=0,02), e a presença de diabetes, a um risco de 4,7 (IC 95%:1,03-21,4; P=0,04) para a morte. Concluiu-se que a disfunção diastólica do ventrículo esquerdo foi o principal preditor de mortalidade nesta coorte de pacientes que estão iniciando tratamento hemodialítico.
Resumo:
Esta dissertação consiste em um estudo de caso realizado na Ediba S.A. – Edificações e Incorporações Barbieri, empresa do setor de construção civil localizada na cidade de Porto Alegre/RS. O principal objetivo do estudo é analisar a satisfação dos trabalhadores quanto aos principais fatores intervenientes em sua Qualidade de Vida no Trabalho (QVT), identificando aspectos que, se melhor gerenciados, poderiam propiciar melhorias em sua qualidade de vida, com reflexos no desempenho organizacional. As variáveis investigadas foram classificadas em Elementos Organizacionais, Ambientais e Comportamentais, segundo o modelo proposto por WERTHER e DAVIS (1983). A pesquisa de campo foi realizada através do levantamento da opinião de 112 colaboradores da empresa pesquisada. Para a análise estatística dos dados, foi utilizado o software SPSS (Statistical Package for Social Science). As conclusões do estudo apresentam os principais resultados extraídos da pesquisa, bem como sugestões de ações relacionadas com a melhoria da QVT dos profissionais pesquisados e, conseqüentemente, dos resultados organizacionais. Os resultados da pesquisa revelaram que os trabalhadores da Ediba sentem-se satisfeitos, embora não totalmente, com sua qualidade de vida. Todos os elementos de QVT investigados apresentaram resultados satisfatórios, sendo que o maior grau de satisfação dos trabalhadores foi demonstrado em relação aos Elementos Ambientais, seguindo-se dos Comportamentais e, por fim, dos Organizacionais.
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.
Resumo:
Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.
Resumo:
A gestão assistencial, cada vez mais, assume a responsabilidade integral do desempenho dos serviços e/ou unidades hospitalares, passando a responder não somente pelo desempenho assistencial como também pelo econômico. Em conseqüência, há maior compreensão do processo e dos recursos consumidos. Assim, os indicadores assistenciais (tempo médio de permanência, taxas de infecção, taxas de óbito) passam a ser as causas mais óbvias e verdadeiramente afins para explicar e revestir os valores econômicos. Todavia, ela necessita de um modelo administrativo que a norteie, possibilitando assim, um gerenciamento sistematizado, científico e qualificado, que atinja as metas traçadas, refletidas nos indicadores de resultado da qualidade assistencial e econômica. Este trabalho teve como objetivo desenvolver um modelo integrado ao Activity-Based Management (ABM) para melhor analisar a eficácia em Serviços de Emergência, buscando através do mapeamento dos processos e custeio das principais atividades, propor o gerenciamento dos Protocolos Clínicos e das Intervenções Terapêuticas - Therapeutic lntervention Scoring System (TISS) pelo método ABM. O desenvolvimento do modelo deu-se em duas etapas: I°) Identificação dos principais serviços prestados e mapeamento dos processos e principais atividades do Plantão Médico do Hospital Mãe de Deus, Porto Alegre -RS; 2°) Desdobramento da análise de Eficiência e Eficácia através de um sistema de informações, onde as entradas consideradas foram os processos, subprocessos e atividades mapeadas e custeadas pelo método Activity- Based Costing (ABe); os processadores foram os protocolos clínicos (ABM estratégico), as rotinas, o TISS e a estatística descritiva (ABM operacional); resultando na saída do sistema a análise da Eficácia (qualidade, tempo e custo) gerando relatórios da Eficácia Assistencial. Considerando-se que na saúde, mesmo contando com a utilização dos melhores recursos e tempos hábeis, existe a probabilidade de desfechos insatisfatórios, o modelo assumiu que para análise da qualidade, a avaliação está embasada num todo, onde se somam basicamente o tempo ideal preconizado para cada situação e a expectativa da utilização otimizada dos recursos (mão-de-obra, materiais, medicamentos, exames e equipamentos). Para análise dos tempos, considerou-se as evidências da obtenção de melhores resultados clínicos. Assim sendo, toda vez que os tempos forem além do preconizado pelos protocolos e rotinas, haverá ineficácia no processo, pois os objetivos assistenciais dos desfechos clínicos serão perturbados. E por fim, na análise dos custos, foram considerados ao mesmo tempo o meio e o fim da quantificação de ociosidade ou desperdício e da qualidade assistencial respectivamente. Fazer as coisas que devem ser feitas, com qualidade a custo menor, proporciona perspectivas de eficácia ao encontro dos objetivos da organização. Como resultados, pode-se constatar que os protocolos clínicos e as intervenções pelo TISS integrados ao ABM e com o uso da estatística descritiva, muito embora não sejam fórmulas rígidas a serem seguidas, mostraram indiscutivelmente a eficácia e a eficiência do processos assistencial, respeitadas as variabilidades de condutas e utilização de recursos explicáveis pela diversidade das doenças.
Resumo:
Trata-se de um estudo sobre o impacto da introdução da vacina contra influenza no perfil de morbimortalidade por pneumonias na população acima de 65 anos, em Porto Alegre, no período de 1995 a 2001. Associado ao estudo da série histórica, investigamos os motivos de adesão ou recusa à prática de vacinação contra influenza entre 138 idosos. Aprofundamos a análise das concepções do processo saúde-doença e das práticas preventivas em saúde com um grupo de 30 idosos usuários do sistema público de saúde. A metodologia utilizada é de caráter epidemiológico do tipo série temporal, combinando entrevistas com idosos e categorização temática das informações obtidas. Os dados de morbidade foram obtidos pela pesquisa documental estatística, a partir dos dados de internação hospitalar do Sistema Único de Saúde (Tabwin) e os dados de mortalidade foram obtidos a partir do Sistema de Informação em Mortalidade (SIM). Os resultados apontam um comportamento de tendência à queda na morbidade, através das internações hospitalares e na mortalidade por pneumonias, após a introdução regular da vacina contra influenza em nosso meio no ano de 1999. Particularizando a adesão ou recusa à prática de vacinação, os idosos demonstram que fatores culturais e sociais influenciaram suas decisões. Os idosos que participaram deste estudo também revelaram que é fundamental a manutenção de uma atividade física, intelectual ou laboral para um envelhecimento saudável. Os resultados deste estudo, acredita-se, contribuem para o aperfeiçoamento das práticas de promoção em saúde através da educação em saúde e da adoção de medidas de proteção específica como a vacinação com eficácia e credibilidade junto à população.
Resumo:
Este trabalho tem como objetivo a determinação quantitativa da concentração de cromo (III, VI e total) nas cinzas de serragem de couro wet-blue, incineradas em reatores de leito fixo nas temperaturas de 450, 550 e 650 C e reator de leito fluidizado nas temperaturas de 730, 780, 830 e 850 C, verificando se estes resultados estão dentro dos limites permitidos pelas normas ambientais brasileiras e, consequentemente, se em relação à concentração de cromo, os processos de incineração utilizados são uma maneira adequada de promover a eliminação ambientalmente aceitável da serragem de couro wet-blue. Realizou-se, neste trabalho, o estudo dos procedimentos para digestão da amostra, dos métodos analíticos quantitativos para a determinação da concentração de cromo que constatou-se depender da valência a ser analisada. As determinações de cromo total e cromo hexavalente contido nas cinzas foram realizadas após digestão ácida e digestão alcalina da amostra, respectivamente. Após o processo de digestão o cromo total (na forma de Cr (VI)) e o cromo hexavalente foram determinados por dois métodos espectrofotométricos na forma de Cr (VI) em meio ácido com difenilcarbazida (DPC) e após redução na forma de Cr (III), complexado com EDTA. O cromo total também foi determinado por volumetria empregando o método titulométrico. Este método não foi empregado na determinação de cromo hexavalente devido aos baixos teores deste nas cinzas. O teor de Cr (III) foi obtido pela diferença entre o cromo total e cromo hexavalente Procedendo-se a análise estatística dos resultados de cromo hexavalente e total nas cinzas pelos diferentes técnicas analíticas, independente do tipo de incinerador, verificou-se que não há diferenças significativas entre os mesmos. Podendo, portanto, utilizar quaisquer uma das técnicas para avaliá-los. Comparando-se os resultados das análises obtidos na incineração da serragem de couro wet-blue em reator de leito fixo e reator de leito fluidizado em diferentes temperaturas, verificou-se que no reator de leito fixo o teor de Cr (VI) nas cinzas geradas foi muito baixa, praticamente inexistente; enquanto que no reator de leito fluidizado se a temperatura de combustão não for muito alta o teor de Cr (VI) ficará dentro dos limites aceitáveis. As cinzas provenientes de qualquer um dos processos de incineração analisadas, neste trabalho, tanto do reator de leito fixo como de leito fluidizado não é conveniente que seja descartada diretamente no solo. As mesmas devem ser aproveitadas na indústria de cerâmicos, ou mesmo em algum processo que visa recuperar o cromo.
Resumo:
Este trabalho apresenta a implantação de um sistema de avaliação e acompanhamento nutricional para trabalhadores. O sistema implantado tem como objetivo a busca de um ser humano mais saudável e satisfeito. A aplicação deste trabalho é ilustrada através de um estudo de caso que envolveu duas empresas: a empresa A, objeto da intervenção, e a empresa B, que serviu como grupo de controle. Na empresa A foi realizada a avaliação médico-nutricional do trabalhador, seguida de um acompanhamento nutricional, com dietas apropriadas a cada indivíduo. Os resultados avaliados estatisticamente, revelam uma melhoria significativa no estado de saúde dos trabalhadores, confirmada através da diminuição dos casos de obesidade, magreza, hipertensão e hipotensão. Na empresa B aplicou-se apenas a avaliação médico-nutricional, sem o devido acompanhamento alimentar. Nesta empresa, como seria esperado, uma vez que não foi feita nenhuma intervenção na dieta dos trabalhadores, os resultados da análise estatística revelam que não ocorreram modificações no perfil de saúde dos funcionários. Os resultados deste estudo de caso ajudam a confirmar o papel importante que a alimentação pode exercer sobre a saúde do trabalhador. Apoiado na literatura, pode ser afirmado que um trabalhador saudável terá maior satisfação no trabalho, alcançando os índices mais altos de produtividade. Desta forma, um programa de avaliação e acompanhamento nutricional pode gerar benefícios para todos os envolvidos: trabalhadores, empresa e sociedade em geral.
Resumo:
As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).
Resumo:
Objetivo: Estudar a influência de duas abordagens cirúrgicas na evolução da gestação de coelhas prenhes. Delineamento: Estudo experimental e controlado. Método: Sessenta coelhas brancas, da raça Nova Zelândia (Oryctolagus cuniculus), prenhes, foram divididas em três grupos de estudo: controle (n=20), laparotomia (n=20) e videolaparoscopia (n=20). Os três grupos, após anestesia intravenosa e intubação orotraqueal, foram submetidos a duas diferentes abordagens cirúrgicas (laparotomia exploradora e videolaparoscopia diagnóstica) e acompanhados até o momento do parto. Foram feitas observações referentes à duração da gestação, da mortalidade fetal e do peso dos láparos vivos. Foram coletadas amostras de sangue arterial, no período pré e pós-operatório, para análise gasométrica e medidas do hematócrito e da hemoglobina das coelhas. Resultados: A duração da gestação (31,6 ± 0,99 vs. 31,8 ± 1,8 vs. 31,3 ± 2,24 dias), a taxa de mortalidade fetal (1,0 ± 2,5 vs. 1,9 ± 2,7 vs. 1,4 ± 2,0) e o peso dos láparos vivos no primeiro dia de vida (48,7 ± 11,3 vs. 51,5 ± 11,9 vs. 48,3 ± 8,2 g) nos grupos C, L e V, respectivamente, não apresentaram diferenças estatísticas significativas entre os grupos de estudo (p>0,05). Nas análises das amostras sangüíneas, quando comparado as diferenças entre o pré e o pós-operatório entre os grupos L e V, respectivamente, foram encontradas diferenças com relevância estatística (p>0,05) em relação às medidas do hematócrito (34,4 ± 3,1 e 33,1 ± 2,8 vs. 34,2 ± 3,2 e 30,3 ± 3,7), do pH (7,4 ± 0,1 e 7,4 ± 0,1 vs. 7,5 ± 0 e 7,3 ± 0,1), do paCO2 ( 30,8 ± 5,1 e 40,7 ± 8,2 vs. 32 ± 3,7 e 53,5 ± 18,4), mas sem relevância clínica. Conclusão: A evolução da gestação das coelhas prenhes submetidas a abordagens videolaparoscópica e laparotômica não mostrou diferença entre os grupos, estando ambas as técnicas indicadas no período gestacional de coelhas quando se fizer necessário.
Caracterização de núcleos celulares no adenocarcinoma primário de reto por análise de imagem digital
Resumo:
O câncer colorretal é um tumor maligno freqüente no mundo ocidental. É o terceiro em freqüência e o segundo em mortalidade nos países desenvolvidos. No Brasil está entre as seis neoplasias malignas mais encontradas e a quinta em mortalidade. Dos tumores colorretais, aproximadamente 40% estão localizados no reto. A sobrevida, em cinco anos, dos pacientes operados por câncer do reto varia entre 40% e 50%, estando os principais fatores prognósticos, utilizados na prática clínica corrente, baseados em critérios de avaliação clínico-patológicos. A avaliação das alterações morfométricas e densimétricas nas neoplasias malignas tem, recentemente, sido estudadas e avaliadas através da análise de imagem digital e demonstrado possibilidades de utilização diagnóstica e prognóstica. A assinatura digital é um histograma representativo de conjuntos de características de textura da cromatina do núcleo celular obtida através da imagem computadorizada. O objetivo deste estudo foi a caracterização dos núcleos celulares neoplásicos no adenocarcinoma primário de reto pelo método da assinatura digital e verificar o valor prognóstico das alterações nucleares da textura da cromatina nuclear para esta doença. Foram avaliados, pelo método de análise de imagem digital, 51 casos de pacientes operados no Hospital de Clínicas de Porto Alegre (HCPA) entre 1988 e 1996 e submetidos à ressecção eletiva do adenocarcinoma primário de reto, com seguimento de cinco anos pós-operatório, ou até o óbito antes deste período determinado pela doença, e 22 casos de biópsias normais de reto obtidas de pacientes submetidos a procedimentos endoscópicos, para controle do método da assinatura digital. A partir dos blocos de parafina dos espécimes estocados no Serviço de Patologia do HCPA, foram realizadas lâminas coradas com hematoxilina e eosina das quais foram selecionados 3.635 núcleos dos adenocarcinomas de reto e 2.366 núcleos dos controles da assinatura digital, totalizando 6.001 núcleos estudados por análise de imagem digital. De cada um destes núcleos foram verificadas 93 características, sendo identificadas 11 características cariométricas com maior poder de discriminação entre as células normais e neoplásicas. Desta forma, através da verificação da textura da cromatina nuclear, foram obtidos os histogramas representativos de cada núcleo ou conjunto de núcleos dos grupos ou subgrupos estudados, também no estadiamento modificado de Dukes, dando origem às assinaturas digitais correspondentes. Foram verificadas as assinaturas nucleares, assinaturas de padrão histológico ou de lesões e a distribuição da Densidade Óptica Total. Houve diferença significativa das características entre o grupo normal e o grupo com câncer, com maior significância para três delas, a Área, a Densidade Óptica Total e a Granularidade nuclear. Os valores das assinaturas médias nucleares foram: no grupo normal 0,0009 e nos estadiamentos; 0,9681 no A, 4,6185 no B, 2,3957 no C e 2,1025 no D e diferiram com significância estatística (P=0,001). A maior diferença do normal ocorreu no subgrupo B de Dukes-Turnbull. As assinaturas nucleares e de padrão histológico mostraram-se distintas no grupo normal e adenocarcinoma, assim como a distribuição da Densidade Óptica Total a qual mostra um afastamento progressivo da normalidade no grupo com câncer. Foi possível a caracterização do adenocarcinoma de reto, que apresentou assinaturas digitais específicas. Em relação ao prognóstico, a Densidade Óptica Total representou a variável que obteve o melhor desempenho, além do estadiamento, como preditor do desfecho.
Resumo:
A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.
Resumo:
Este trabalho tem como objetivo o estudo da matéria nuclear a altas densidades considerando-se as fases hadrônica e de quarks à temperatura nula e finita, com vistas a aplicações no estudo de propriedades estáticas globais de estrelas compactas. Parte dos cálculos apresentados nesta dissertação foram realizados por diferentes autores. Entretanto, em geral, estes trabalhos limitaram-se ao estudo da matéria nuclear em regiões de densidades e temperaturas específicas. Este estudo visa, por sua vez, o desenvolvimento de um tratamento amplo e consistente para estes sistemas, considerando-se diferentes regimes de densidade e temperatura para ambas as fases, hadrônica e de quarks. Buscamos com isso adquirir conhecimento suficiente que possibilite, não somente a ampliação do escopo dos modelos considerados, como também o desenvolvimento, no futuro, de um modelo mais apropriado à descrição de propriedades estáticas e dinâmicas de estrelas compactas. Ainda assim, este trabalho apresenta novos aspectos e resultados inéditos referentes ao estudo da matéria nuclear, como descrevemos a seguir. No estudo da matéria nuclear na fase hadrônica, consideramos os modelos da teoria quântica de campos nucleares desenvolvidos por J. D. Walecka, J. Zimanyi e S. A. Moszkowski, e por J. Boguta e A. R. Bodmer, e conhecidos, respectivamente, como Hadrodinâmica Quântica, ZM e Não-Linear. Nestes modelos a matéria nuclear é descrita a partir de uma formulação lagrangeana com os campos efetivos dos bárions acoplados aos campos dos mésons, responsáveis pela interação nuclear Neste estudo consideramos inicialmente a descrição de propriedades estáticas globais de sistemas nucleares de muitos corpos à temperatura nula, como por exemplo, a massa efetiva do núcleon na matéria nuclear simétrica e de nêutrons. A equação de estado da matéria de nêutrons possibilita a descrição de propriedades estáticas globais de estrelas compactas, como sua massa e raio, através da sua incorporação nas equações de Tolman, Oppenheimer e Volkoff (TOV). Os resultados obtidos nestes cálculos estão em plena concordância com os resultados apresentados por outros autores. Consideramos posteriormente o estudo da matéria nuclear com graus de liberdade de bárions e mésons à temperatura finita, com particular atenção na região de transição de fase. Para este estudo, incorporamos aos modelos considerados, o formalismo da mecânica estatística à temperatura finita. Os resultados obtidos, para as propriedades da matéria nuclear à temperatura finita, concordam também com os resultados obtidos por outros autores. Um aspecto inédito apresentado neste trabalho refere-se à incorporação de valores para os pontos críticos da transição de fase, ainda não determinados por outros autores. O comportamento do calor específico também é analisado de forma inédita nesta dissertação no tratamento utilizado com os modelos Não-Linear e ZM. Utilizamos a equação de estado da matéria de nêutrons à temperatura finita nas equações TOV, determinando propriedades globais de uma estrela protoneutrônica Observamos neste trabalho que ocorre um aumento da massa máxima da estrela com o aumento da temperatura, comportamento este já previsto por outros autores em diferentes modelos. Posteriormente incorporamos ao formalismo à temperatura finita, o equilíbrio químico, a presença de graus de liberdade leptônicos para elétrons e múons e a neutralidade de carga. Apresentamos nesta etapa do trabalho, uma forma alternativa para a incorporação destes ingredientes, baseada na determinação de uma fração relativa entre os potenciais químicos de prótons e nêutrons, à temperatura nula, extendendo este resultado à temperatura finita. Este procedimento permite a determinação da distribuição de núcleons e léptons no interior de uma estrela protoneutrônica, onde incluímos ainda a presença de neutrinos confinados. No estudo da matéria de quarks, consideramos o modelo de sacola do Massachussets Institute of Technology (MIT). Incorporando as equações TOV neste estudo, determinamos propriedades globais de estrelas de quarks, bem como a distribuição dos diferentes sabores de quarks no interior estelar. Como principal resultado, obtivemos uma equação de estado geral para a matéria hadrônica e de quarks, introduzida nas equações TOV, e analisamos a existência de estrelas híbridas. Os resultados obtidos nesta etapa do trabalho são totalmente coerentes com aqueles obtidos por outros autores.