957 resultados para Termodinamica estatística
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.
Resumo:
Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.
Resumo:
A gestão assistencial, cada vez mais, assume a responsabilidade integral do desempenho dos serviços e/ou unidades hospitalares, passando a responder não somente pelo desempenho assistencial como também pelo econômico. Em conseqüência, há maior compreensão do processo e dos recursos consumidos. Assim, os indicadores assistenciais (tempo médio de permanência, taxas de infecção, taxas de óbito) passam a ser as causas mais óbvias e verdadeiramente afins para explicar e revestir os valores econômicos. Todavia, ela necessita de um modelo administrativo que a norteie, possibilitando assim, um gerenciamento sistematizado, científico e qualificado, que atinja as metas traçadas, refletidas nos indicadores de resultado da qualidade assistencial e econômica. Este trabalho teve como objetivo desenvolver um modelo integrado ao Activity-Based Management (ABM) para melhor analisar a eficácia em Serviços de Emergência, buscando através do mapeamento dos processos e custeio das principais atividades, propor o gerenciamento dos Protocolos Clínicos e das Intervenções Terapêuticas - Therapeutic lntervention Scoring System (TISS) pelo método ABM. O desenvolvimento do modelo deu-se em duas etapas: I°) Identificação dos principais serviços prestados e mapeamento dos processos e principais atividades do Plantão Médico do Hospital Mãe de Deus, Porto Alegre -RS; 2°) Desdobramento da análise de Eficiência e Eficácia através de um sistema de informações, onde as entradas consideradas foram os processos, subprocessos e atividades mapeadas e custeadas pelo método Activity- Based Costing (ABe); os processadores foram os protocolos clínicos (ABM estratégico), as rotinas, o TISS e a estatística descritiva (ABM operacional); resultando na saída do sistema a análise da Eficácia (qualidade, tempo e custo) gerando relatórios da Eficácia Assistencial. Considerando-se que na saúde, mesmo contando com a utilização dos melhores recursos e tempos hábeis, existe a probabilidade de desfechos insatisfatórios, o modelo assumiu que para análise da qualidade, a avaliação está embasada num todo, onde se somam basicamente o tempo ideal preconizado para cada situação e a expectativa da utilização otimizada dos recursos (mão-de-obra, materiais, medicamentos, exames e equipamentos). Para análise dos tempos, considerou-se as evidências da obtenção de melhores resultados clínicos. Assim sendo, toda vez que os tempos forem além do preconizado pelos protocolos e rotinas, haverá ineficácia no processo, pois os objetivos assistenciais dos desfechos clínicos serão perturbados. E por fim, na análise dos custos, foram considerados ao mesmo tempo o meio e o fim da quantificação de ociosidade ou desperdício e da qualidade assistencial respectivamente. Fazer as coisas que devem ser feitas, com qualidade a custo menor, proporciona perspectivas de eficácia ao encontro dos objetivos da organização. Como resultados, pode-se constatar que os protocolos clínicos e as intervenções pelo TISS integrados ao ABM e com o uso da estatística descritiva, muito embora não sejam fórmulas rígidas a serem seguidas, mostraram indiscutivelmente a eficácia e a eficiência do processos assistencial, respeitadas as variabilidades de condutas e utilização de recursos explicáveis pela diversidade das doenças.
Resumo:
Trata-se de um estudo sobre o impacto da introdução da vacina contra influenza no perfil de morbimortalidade por pneumonias na população acima de 65 anos, em Porto Alegre, no período de 1995 a 2001. Associado ao estudo da série histórica, investigamos os motivos de adesão ou recusa à prática de vacinação contra influenza entre 138 idosos. Aprofundamos a análise das concepções do processo saúde-doença e das práticas preventivas em saúde com um grupo de 30 idosos usuários do sistema público de saúde. A metodologia utilizada é de caráter epidemiológico do tipo série temporal, combinando entrevistas com idosos e categorização temática das informações obtidas. Os dados de morbidade foram obtidos pela pesquisa documental estatística, a partir dos dados de internação hospitalar do Sistema Único de Saúde (Tabwin) e os dados de mortalidade foram obtidos a partir do Sistema de Informação em Mortalidade (SIM). Os resultados apontam um comportamento de tendência à queda na morbidade, através das internações hospitalares e na mortalidade por pneumonias, após a introdução regular da vacina contra influenza em nosso meio no ano de 1999. Particularizando a adesão ou recusa à prática de vacinação, os idosos demonstram que fatores culturais e sociais influenciaram suas decisões. Os idosos que participaram deste estudo também revelaram que é fundamental a manutenção de uma atividade física, intelectual ou laboral para um envelhecimento saudável. Os resultados deste estudo, acredita-se, contribuem para o aperfeiçoamento das práticas de promoção em saúde através da educação em saúde e da adoção de medidas de proteção específica como a vacinação com eficácia e credibilidade junto à população.
Resumo:
Este trabalho tem como objetivo a determinação quantitativa da concentração de cromo (III, VI e total) nas cinzas de serragem de couro wet-blue, incineradas em reatores de leito fixo nas temperaturas de 450, 550 e 650 C e reator de leito fluidizado nas temperaturas de 730, 780, 830 e 850 C, verificando se estes resultados estão dentro dos limites permitidos pelas normas ambientais brasileiras e, consequentemente, se em relação à concentração de cromo, os processos de incineração utilizados são uma maneira adequada de promover a eliminação ambientalmente aceitável da serragem de couro wet-blue. Realizou-se, neste trabalho, o estudo dos procedimentos para digestão da amostra, dos métodos analíticos quantitativos para a determinação da concentração de cromo que constatou-se depender da valência a ser analisada. As determinações de cromo total e cromo hexavalente contido nas cinzas foram realizadas após digestão ácida e digestão alcalina da amostra, respectivamente. Após o processo de digestão o cromo total (na forma de Cr (VI)) e o cromo hexavalente foram determinados por dois métodos espectrofotométricos na forma de Cr (VI) em meio ácido com difenilcarbazida (DPC) e após redução na forma de Cr (III), complexado com EDTA. O cromo total também foi determinado por volumetria empregando o método titulométrico. Este método não foi empregado na determinação de cromo hexavalente devido aos baixos teores deste nas cinzas. O teor de Cr (III) foi obtido pela diferença entre o cromo total e cromo hexavalente Procedendo-se a análise estatística dos resultados de cromo hexavalente e total nas cinzas pelos diferentes técnicas analíticas, independente do tipo de incinerador, verificou-se que não há diferenças significativas entre os mesmos. Podendo, portanto, utilizar quaisquer uma das técnicas para avaliá-los. Comparando-se os resultados das análises obtidos na incineração da serragem de couro wet-blue em reator de leito fixo e reator de leito fluidizado em diferentes temperaturas, verificou-se que no reator de leito fixo o teor de Cr (VI) nas cinzas geradas foi muito baixa, praticamente inexistente; enquanto que no reator de leito fluidizado se a temperatura de combustão não for muito alta o teor de Cr (VI) ficará dentro dos limites aceitáveis. As cinzas provenientes de qualquer um dos processos de incineração analisadas, neste trabalho, tanto do reator de leito fixo como de leito fluidizado não é conveniente que seja descartada diretamente no solo. As mesmas devem ser aproveitadas na indústria de cerâmicos, ou mesmo em algum processo que visa recuperar o cromo.
Resumo:
Este trabalho apresenta a implantação de um sistema de avaliação e acompanhamento nutricional para trabalhadores. O sistema implantado tem como objetivo a busca de um ser humano mais saudável e satisfeito. A aplicação deste trabalho é ilustrada através de um estudo de caso que envolveu duas empresas: a empresa A, objeto da intervenção, e a empresa B, que serviu como grupo de controle. Na empresa A foi realizada a avaliação médico-nutricional do trabalhador, seguida de um acompanhamento nutricional, com dietas apropriadas a cada indivíduo. Os resultados avaliados estatisticamente, revelam uma melhoria significativa no estado de saúde dos trabalhadores, confirmada através da diminuição dos casos de obesidade, magreza, hipertensão e hipotensão. Na empresa B aplicou-se apenas a avaliação médico-nutricional, sem o devido acompanhamento alimentar. Nesta empresa, como seria esperado, uma vez que não foi feita nenhuma intervenção na dieta dos trabalhadores, os resultados da análise estatística revelam que não ocorreram modificações no perfil de saúde dos funcionários. Os resultados deste estudo de caso ajudam a confirmar o papel importante que a alimentação pode exercer sobre a saúde do trabalhador. Apoiado na literatura, pode ser afirmado que um trabalhador saudável terá maior satisfação no trabalho, alcançando os índices mais altos de produtividade. Desta forma, um programa de avaliação e acompanhamento nutricional pode gerar benefícios para todos os envolvidos: trabalhadores, empresa e sociedade em geral.
Resumo:
As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).
Resumo:
Objetivo: Estudar a influência de duas abordagens cirúrgicas na evolução da gestação de coelhas prenhes. Delineamento: Estudo experimental e controlado. Método: Sessenta coelhas brancas, da raça Nova Zelândia (Oryctolagus cuniculus), prenhes, foram divididas em três grupos de estudo: controle (n=20), laparotomia (n=20) e videolaparoscopia (n=20). Os três grupos, após anestesia intravenosa e intubação orotraqueal, foram submetidos a duas diferentes abordagens cirúrgicas (laparotomia exploradora e videolaparoscopia diagnóstica) e acompanhados até o momento do parto. Foram feitas observações referentes à duração da gestação, da mortalidade fetal e do peso dos láparos vivos. Foram coletadas amostras de sangue arterial, no período pré e pós-operatório, para análise gasométrica e medidas do hematócrito e da hemoglobina das coelhas. Resultados: A duração da gestação (31,6 ± 0,99 vs. 31,8 ± 1,8 vs. 31,3 ± 2,24 dias), a taxa de mortalidade fetal (1,0 ± 2,5 vs. 1,9 ± 2,7 vs. 1,4 ± 2,0) e o peso dos láparos vivos no primeiro dia de vida (48,7 ± 11,3 vs. 51,5 ± 11,9 vs. 48,3 ± 8,2 g) nos grupos C, L e V, respectivamente, não apresentaram diferenças estatísticas significativas entre os grupos de estudo (p>0,05). Nas análises das amostras sangüíneas, quando comparado as diferenças entre o pré e o pós-operatório entre os grupos L e V, respectivamente, foram encontradas diferenças com relevância estatística (p>0,05) em relação às medidas do hematócrito (34,4 ± 3,1 e 33,1 ± 2,8 vs. 34,2 ± 3,2 e 30,3 ± 3,7), do pH (7,4 ± 0,1 e 7,4 ± 0,1 vs. 7,5 ± 0 e 7,3 ± 0,1), do paCO2 ( 30,8 ± 5,1 e 40,7 ± 8,2 vs. 32 ± 3,7 e 53,5 ± 18,4), mas sem relevância clínica. Conclusão: A evolução da gestação das coelhas prenhes submetidas a abordagens videolaparoscópica e laparotômica não mostrou diferença entre os grupos, estando ambas as técnicas indicadas no período gestacional de coelhas quando se fizer necessário.
Caracterização de núcleos celulares no adenocarcinoma primário de reto por análise de imagem digital
Resumo:
O câncer colorretal é um tumor maligno freqüente no mundo ocidental. É o terceiro em freqüência e o segundo em mortalidade nos países desenvolvidos. No Brasil está entre as seis neoplasias malignas mais encontradas e a quinta em mortalidade. Dos tumores colorretais, aproximadamente 40% estão localizados no reto. A sobrevida, em cinco anos, dos pacientes operados por câncer do reto varia entre 40% e 50%, estando os principais fatores prognósticos, utilizados na prática clínica corrente, baseados em critérios de avaliação clínico-patológicos. A avaliação das alterações morfométricas e densimétricas nas neoplasias malignas tem, recentemente, sido estudadas e avaliadas através da análise de imagem digital e demonstrado possibilidades de utilização diagnóstica e prognóstica. A assinatura digital é um histograma representativo de conjuntos de características de textura da cromatina do núcleo celular obtida através da imagem computadorizada. O objetivo deste estudo foi a caracterização dos núcleos celulares neoplásicos no adenocarcinoma primário de reto pelo método da assinatura digital e verificar o valor prognóstico das alterações nucleares da textura da cromatina nuclear para esta doença. Foram avaliados, pelo método de análise de imagem digital, 51 casos de pacientes operados no Hospital de Clínicas de Porto Alegre (HCPA) entre 1988 e 1996 e submetidos à ressecção eletiva do adenocarcinoma primário de reto, com seguimento de cinco anos pós-operatório, ou até o óbito antes deste período determinado pela doença, e 22 casos de biópsias normais de reto obtidas de pacientes submetidos a procedimentos endoscópicos, para controle do método da assinatura digital. A partir dos blocos de parafina dos espécimes estocados no Serviço de Patologia do HCPA, foram realizadas lâminas coradas com hematoxilina e eosina das quais foram selecionados 3.635 núcleos dos adenocarcinomas de reto e 2.366 núcleos dos controles da assinatura digital, totalizando 6.001 núcleos estudados por análise de imagem digital. De cada um destes núcleos foram verificadas 93 características, sendo identificadas 11 características cariométricas com maior poder de discriminação entre as células normais e neoplásicas. Desta forma, através da verificação da textura da cromatina nuclear, foram obtidos os histogramas representativos de cada núcleo ou conjunto de núcleos dos grupos ou subgrupos estudados, também no estadiamento modificado de Dukes, dando origem às assinaturas digitais correspondentes. Foram verificadas as assinaturas nucleares, assinaturas de padrão histológico ou de lesões e a distribuição da Densidade Óptica Total. Houve diferença significativa das características entre o grupo normal e o grupo com câncer, com maior significância para três delas, a Área, a Densidade Óptica Total e a Granularidade nuclear. Os valores das assinaturas médias nucleares foram: no grupo normal 0,0009 e nos estadiamentos; 0,9681 no A, 4,6185 no B, 2,3957 no C e 2,1025 no D e diferiram com significância estatística (P=0,001). A maior diferença do normal ocorreu no subgrupo B de Dukes-Turnbull. As assinaturas nucleares e de padrão histológico mostraram-se distintas no grupo normal e adenocarcinoma, assim como a distribuição da Densidade Óptica Total a qual mostra um afastamento progressivo da normalidade no grupo com câncer. Foi possível a caracterização do adenocarcinoma de reto, que apresentou assinaturas digitais específicas. Em relação ao prognóstico, a Densidade Óptica Total representou a variável que obteve o melhor desempenho, além do estadiamento, como preditor do desfecho.
Resumo:
A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.
Resumo:
Este trabalho tem como objetivo o estudo da matéria nuclear a altas densidades considerando-se as fases hadrônica e de quarks à temperatura nula e finita, com vistas a aplicações no estudo de propriedades estáticas globais de estrelas compactas. Parte dos cálculos apresentados nesta dissertação foram realizados por diferentes autores. Entretanto, em geral, estes trabalhos limitaram-se ao estudo da matéria nuclear em regiões de densidades e temperaturas específicas. Este estudo visa, por sua vez, o desenvolvimento de um tratamento amplo e consistente para estes sistemas, considerando-se diferentes regimes de densidade e temperatura para ambas as fases, hadrônica e de quarks. Buscamos com isso adquirir conhecimento suficiente que possibilite, não somente a ampliação do escopo dos modelos considerados, como também o desenvolvimento, no futuro, de um modelo mais apropriado à descrição de propriedades estáticas e dinâmicas de estrelas compactas. Ainda assim, este trabalho apresenta novos aspectos e resultados inéditos referentes ao estudo da matéria nuclear, como descrevemos a seguir. No estudo da matéria nuclear na fase hadrônica, consideramos os modelos da teoria quântica de campos nucleares desenvolvidos por J. D. Walecka, J. Zimanyi e S. A. Moszkowski, e por J. Boguta e A. R. Bodmer, e conhecidos, respectivamente, como Hadrodinâmica Quântica, ZM e Não-Linear. Nestes modelos a matéria nuclear é descrita a partir de uma formulação lagrangeana com os campos efetivos dos bárions acoplados aos campos dos mésons, responsáveis pela interação nuclear Neste estudo consideramos inicialmente a descrição de propriedades estáticas globais de sistemas nucleares de muitos corpos à temperatura nula, como por exemplo, a massa efetiva do núcleon na matéria nuclear simétrica e de nêutrons. A equação de estado da matéria de nêutrons possibilita a descrição de propriedades estáticas globais de estrelas compactas, como sua massa e raio, através da sua incorporação nas equações de Tolman, Oppenheimer e Volkoff (TOV). Os resultados obtidos nestes cálculos estão em plena concordância com os resultados apresentados por outros autores. Consideramos posteriormente o estudo da matéria nuclear com graus de liberdade de bárions e mésons à temperatura finita, com particular atenção na região de transição de fase. Para este estudo, incorporamos aos modelos considerados, o formalismo da mecânica estatística à temperatura finita. Os resultados obtidos, para as propriedades da matéria nuclear à temperatura finita, concordam também com os resultados obtidos por outros autores. Um aspecto inédito apresentado neste trabalho refere-se à incorporação de valores para os pontos críticos da transição de fase, ainda não determinados por outros autores. O comportamento do calor específico também é analisado de forma inédita nesta dissertação no tratamento utilizado com os modelos Não-Linear e ZM. Utilizamos a equação de estado da matéria de nêutrons à temperatura finita nas equações TOV, determinando propriedades globais de uma estrela protoneutrônica Observamos neste trabalho que ocorre um aumento da massa máxima da estrela com o aumento da temperatura, comportamento este já previsto por outros autores em diferentes modelos. Posteriormente incorporamos ao formalismo à temperatura finita, o equilíbrio químico, a presença de graus de liberdade leptônicos para elétrons e múons e a neutralidade de carga. Apresentamos nesta etapa do trabalho, uma forma alternativa para a incorporação destes ingredientes, baseada na determinação de uma fração relativa entre os potenciais químicos de prótons e nêutrons, à temperatura nula, extendendo este resultado à temperatura finita. Este procedimento permite a determinação da distribuição de núcleons e léptons no interior de uma estrela protoneutrônica, onde incluímos ainda a presença de neutrinos confinados. No estudo da matéria de quarks, consideramos o modelo de sacola do Massachussets Institute of Technology (MIT). Incorporando as equações TOV neste estudo, determinamos propriedades globais de estrelas de quarks, bem como a distribuição dos diferentes sabores de quarks no interior estelar. Como principal resultado, obtivemos uma equação de estado geral para a matéria hadrônica e de quarks, introduzida nas equações TOV, e analisamos a existência de estrelas híbridas. Os resultados obtidos nesta etapa do trabalho são totalmente coerentes com aqueles obtidos por outros autores.
Resumo:
Mosaicos de áreas úmidas fornecem hábitats para uma ampla gama de espécies de aves, que raramente se distribuem uniformemente dentro das mesmas. O cenário mundial atual do estudo de aves em áreas úmidas deixa bem claro que as metodologias para estudos quantitativos de aves em áreas úmidas ainda estão sendo criadas ou aperfeiçoadas. O mosaico formado pelas áreas úmidas do Banhado dos Pachecos é de reconhecida importância para a conservação de aves aquáticas, constituindo-se numa área ideal para estudos da avifauna. A presente dissertação tem como objetivo avaliar a estrutura espacial e sazonal da avifauna do Banhado dos Pachecos, tecer considerações sobre a conservação das aves aquáticas sob uma perspectiva de paisagem e testar a viabilidade de se utilizar amostragens matinais e vespertinas para análises de distribuição e abundância da avifauna. O Banhado dos Pachecos, juntamente com o Banhado Grande, formam o Sistema Banhado Grande. A amostragem da avifauna foi conduzida através de levantamentos qualitativos e quantitativos de modo a cobrir quatro estações climáticas: verão, outono, inverno e primavera. As amostragens qualitativas foram realizadas através de deslocamentos ad libitum entre e durante as amostragens quantitativas em todas as fisionomias. As amostragens quantitativas foram realizadas através de pontos de contagem, transecções e contagens totais. Riqueza, grupos funcionais de forrageio, grupos funcionais de nidificação, aves aquáticas, situação de ocorrência no Rio Grande do Sul, espécies ameaçadas de extinção e abundância foram os descritores utilizados para a caracterização da avifauna. A estatística empregada na análise dos dados multivariados baseou-se em métodos não-paramétricos de reamostragem através de aleatorização e “bootstrap”. Análises de agrupamentos foram realizadas para determinar a formação de grupos de fisionomias e análises de coordenadas principais foram realizadas para determinar se existia algum padrão de associação entre as diferentes fisionomias. Registraram-se 209 espécies de aves, vinte e e três grupos funcionais de forrageio, sete grupos funcionais de nidificação e 60 espécies de aves aquáticas e 11 espécies ameaçadas de extinção. Trinta e duas espécies apresentaram evidências discordantes da situação de ocorrência conhecida para o estado. Alguns fatores que poderiam ser fontes de viés para a interpretação das análises na presente dissertação foram abordados. A constância encontrada no conjunto de espécies da área de estudo pode refletir uma maior estabilidade ambiental. O alto número de grupos funcionais de forrageio e de nidificação registrados para a área de estudo sugere uma grande diversidade de recursos, reflexo da heterogeneidade entre as diferentes fisionomias. A origem de algumas espécies que se mostraram efetivamente migratórias, pois usaram a área de estudo em um período estacional bem definido, se mostra uma incógnita. Somente estudos extensivos e abrangentes poderão responder essas perguntas e propor medidas eficientes para a conservação tanto das áreas úmidas como das espécies que delas dependem. A restauração de um corredor de áreas úmidas entre o banhado dos Pachecos e o banhado Grande, juntamente com um manejo rotativo de cultivos de arroz parece ser a alternativa mais viável e conciliatória entre pontos de vista econômico e conservacionista para possibilitar o aumento da conectividade no Sistema Banhado Grande.
Resumo:
O objetivo deste estudo foi avaliar o comportamento do gradiente de pressão venosa hepática (GPVH) em pacientes com cirrose. Foram estudados 83 pacientes portadores de hepatopatia crônica, com média de idade de 52,9 ± 10,1 anos, sendo 71,1% do sexo masculino. Todos realizaram estudo hemodinâmico hepático, sendo determinado o GPVH. Nestes doentes o GPVH foi analisado segundo distintas variáveis clínicas, enfatizando seu papel na avaliação da probabilidade de sangramento a partir de um nível discriminativo. Os pacientes foram seguidos em média por 16,6 ± 16,02 meses e divididos em grupos conforme o desfecho: óbito, realização de cirurgia de “shunt” porto-cava, de transplante hepático e ressangramento por ruptura de varizes de esôfago durante o seguimento, tendo sido realizadas comparações entre as médias do GPVH nos diferentes desfechos. O nível de significância estatística adotado de foi 0,05. Com os dados obtidos foram possíveis os seguintes resultados: - A média do GPVH nos pacientes com hepatopatia crônica foi de 15,26 ± 6,46 mmHg. - Não houve diferença estatística entre as médias do GPVH nos hepatopatas crônicos de etiologia alcoólica e não alcoólica. - O risco relativo para sangramento por varizes de esôfago foi maior nos pacientes com GPVH acima de 10 e 12mmHg, embora tenha havido sangramento em doentes com níveis inferiores a estes. - A média do GPVH foi significativamente maior nos pacientes que apresentaram sangramento durante o seguimento em relação àqueles que estiveram livres desta complicação. - A média do GPVH no grupo de pacientes que sangraram, que foram a óbito, que realizaram “shunt” porto-cava e que foram a transplante hepático foi significativamente maior do que aquela observada nos pacientes que evoluíram sem complicações. - Não foi identificado um nível crítico discriminativo do GPVH que estivesse relacionado ao prognóstico. - A determinação do GPVH, ressalvada uma complicação de seriedade, mostrou-se um método seguro. Dos resultados aqui observados, conclui-se que a determinação do GPVH é útil em predizer qual população de cirróticos está mais suscetível ao sangramento digestivo por ruptura de varizes, bem como em auxiliar na avaliação do prognóstico dos mesmos.
Resumo:
Esta tese trata da relação matemática entre as espessuras real e aparente em contaminações subterrâneas com gasolina e com gasolina e etanol. Foi testada a hipótese de que a relação entre as espessuras dos dois tipos de gasolinas pode ser descrita pela mesma relação matemática desde que esta relação incorpore as tensões interfaciais entre a água e a gasolina e gasolina e o ar que ocorrem no meio poroso. É proposta uma relação matemática hidrostática para o equilíbrio considerando o contato entre o poço de monitoramento e o meio poroso e a tensão interfacial responsável pelos efeitos capilares no meio poroso e a densidade dos fluidos. Os experimentos conduzidos em meio poroso e colunas acrílicas mostraram um ajuste estatisticamente melhor da equação matemática proposta para a gasolina pura e um ajuste que apresentou menor representatividade estatística para a gasolina com etanol. Esta discrepância está relacionada ao fato da transferência de massa do etanol presente na gasolina para a água não ser um fenômeno desprezível, causar grande influência no sistema e não estar contemplada na relação matemática proposta. Outro fenômeno observado em gotas de fluidos em experimentos para medir a tensão interfacial pode ser responsável pelo ajuste menos representativo da equação que é a presença de instabilidades na interface de contato entre a gasolina e a água. Estas instabilidades que são chamadas na literatura de Efeito Marangoni produzem variações na interface entre água e gasolina e são também responsáveis pela diferença no ajuste da equação.
Resumo:
O objetivo deste estudo foi avaliar a eficácia de três aparelhos fotopolimerizadores comerciais que utilizam o LED como fonte de luz (Elipar FreeLight - 3M-ESPE, UltraLume-LED2 - Ultradent e Single V - BioArt) na polimerização do compósito Z250 (3M-ESPE), cor A3, através das propriedades: microdureza Knoop, profundidade de polimerização e resistência flexural. Um aparelho fotopolimerizador convencional de lâmpada halógena XL 2500 (3M-ESPE) foi utilizado como controle. Em todos os casos, o tempo de polimerização adotado foi de 20 s. Para o ensaio de microdureza foram confeccionados 10 corpos de prova cilíndricos com 8 mm de diâmetro e 2 mm de altura para cada aparelho fotopolimerizador. A microdureza foi medida 24 h após a confecção dos corpos de prova, que ficaram armazenados em ambiente seco e protegidos da luz. Para o ensaio de profundidade de polimerização foram confeccionados três corpos de prova cilíndricos com 4 mm de diâmetro e 6 mm de altura para cada aparelho fotopolimerizador. O ensaio foi realizado imediatamente após a polimerização do compósito. Para o ensaio de resistência flexural foram confeccionados 5 corpos de prova com 25 mm de comprimento, 2 mm de altura e 2 mm de largura para cada aparelho fotopolimerizador. A resistência flexural foi medida 24 h após a polimerização do compósito e armazenagem dos corpos de prova em água destilada a 37ºC. Os resultados obtidos foram comparados às exigências da especificação 4049:2000 da International Organization for Standardization (ISO) e submetidos à análise estatística para comparação entre os aparelhos. Os valores de microdureza obtidos com os três fotopolimerizadores com LED não mostraram diferença entre si e foram superiores aos obtidos com o aparelho convencional. Para o ensaio de profundidade de polimerização, os valores obtidos com o aparelho Single V foram superiores aos do aparelho convencional, enquanto que os obtidos pelos outros dois aparelhos não apresentaram diferenças significativas entre si e o convencional. Para o ensaio de resistência flexural, não houve diferença entre os valores obtidos pelos três aparelhos com LED e o aparelho convencional. As exigênias da ISO 4049:2000 para os ensaios de profundidade de polimerização e resistência flexural foram atendidas em todos os casos.