12 resultados para Complexidade da medicação
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
O estresse é considerado ao mesmo tempo um mecanismo de defesa contra diferentes fatores agressores e a causa de importantes alterações orgânicas que podem levar ao estabelecimento de estados mórbidos. A definição de estresse em animais é tema de controvérsia, no entanto a ativação do eixo hipotalâmico-hipofisário-adrenal (HHA) é utilizado como parâmetro para avaliação do grau de alteração imposto. Em eqüinos, a anestesia isoladamente pode desencadear a cascata de eventos ligados ao estresse, não necessitando como em outras espécies a participação de intervenções cirúrgicas. No entanto, a anestesia geral intravenosa têm sido considerada como menos agressiva e conseqüentemente não desencadeadora de estresse. No presente estudo foi avaliado uma combinação para indução anestésica, a tiletamina-zolazepam (TZ=1,1 mg.kg-1), tendo como medicação pré-anestésica a romifidina (80 µg.kg-1), utilizada isolada ou associada a acepromazina (0,08 mg.kg-1) ou diazepam (0,1 mg. .kg-1). A romifidina é um agonista adrenérgico α-2, de marcada ação sedativa e miorrelaxante. A acepromazina é um derivado fenotiazínico cuja ação tranqüilizante tem sido aplicada na combinação com diversos outros fármacos para indução anestésica. O diazepam é considerado o benzodiazepínico clássico, com atividade ansiolítica e miorrelaxante. Os três fármacos são de uso corrente na medicina veterinária eqüina. A tiletamina é uma ciclohexamina de ação semelhante à cetamina e é disponível comercialmente associada ao zolazepam, na proporção de 1:1. Foram utilizados neste trabalho 24 eqüinos de ambos os sexos, diferentes idades e raças, todos enquadrados na categoria ASA I (American Society of Anesthesiologists). Os animais foram divididos aleatoriamente em três grupos. Os grupos, foram definidos pela combinação pré-anestésica como RTZ (romifidina), ARTZ (acepromazina + romifidina) e DRTZ (diazepam + romifidina). Os fármacos foram administrados por via intravenosa. Entre a romifidina e TZ foi estabelecido um intervalo de 10 minutos em todos os grupos, entre a acepromazina e a romifidina um período de 30 minutos e, a partir da administração de diazepam, houve uma pausa de 3 horas até a romifidina. As colheitas de sangue para as dosagens hormonais foram realizadas em três tempos nos grupos RTZ e ARTZ. Antes de qualquer fármaco (P), após a administração da MPA (M) e 15 minutos após a indução (I). No grupo DRTZ, como se desejava avaliar o efeito do benzodiazepínico isolado, foi realizada uma quarta colheita antes da administração de romifidina (B). Para os demais parâmetros os tempos considerados foram P e I. Foram avaliados a concentração plasmática de ACTH e cortisol, a concentração sérica de glicose e lactato, freqüências cardíaca e respiratória, parâmetros hematológicos (eritrócitos, leucócitos, hemograma e hemoglobina), gasometria arterial, traçado eletrocardiográfico e tempo de imobilidade. Os dados foram analisados estatisticamente por ANOVA para medidas repetidas e teste t de Student. O nível de significância foi de α=0,05. Os resultados revelaram que a anestesia geral intravenosa com os protocolos propostos, não desencadeou a ativação do eixo HHA, exceção feita ao Grupo ARTZ. Os valores de ACTH diferiram entre o grupo DRTZ e os demais, sendo que neste houve valores inferiores. Não houve diferença estatística nos valores dos demais parâmetros com exceção da freqüência cardíaca que no grupo RTZ não revelou variações entre as colheitas. O tempo de imobilidade observado no grupo ARTZ foi superior aos demais.
Resumo:
Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.
Resumo:
o estudo da relação entre a complexidade do conhecimento e sua construção no ambiente escolar apóia-se na Epistemologia Genética e no paradigma da complexidade. A investigação se delineou como um estudo qualitativo, inspirado na metodologia de Estudo de Caso. O problema de pesquisa procurou indagar a repercussão da fragmentação dos conteúdos programáticos em disciplinas nos anos finais do Ensino Fundamental. Os dados foram coletados através de múltiplas fontes de evidência. Realizaram-se entrevistas, inspiradas na abordagem clínica piagetiana, com alunos e professores; - observações diretas do tipo participante como observador e análise documental. Os dados coletados indicam que as práticas escolares apresentam pressupostos epistemológicos e paradigmáticos que se apóiam no senso comum e estendem-se em métodos empiristas/aprioristas e reducionistas. O pensamento do aluno é manipulado de forma a se enquadrar ao modelo escolar. A fala é reduzida a uma mera ação prática, pois, embora exercida, o professor desconsidera a importância do diálogo. Por sua vez, os exercícios apresentam-se como dois lados de uma mesma moeda. Podem manifestar-se como promotores de técnicas empiristas, quando colocados sob a forma de repetição para a memorização. Todavia, podem se revelar como um recurso extremamente valioso quando colocam um problema, apresentam desafios e permitem a testagem de hipóteses do sujeito. Já os conteúdos programáticos visam a uma eterna diferenciação do objeto de estudo, a qual se configura como uma simples fragmentação capaz de eliminar qualquer dimensão do conhecimento enquanto totalidade. O tempo da aprendizagem acaba por se igualar com aquele que o professor gasta para expor a informação ao aluno. Isso o relega a uma posição passiva que retira o caráter de equilíbrio dinâmico do conhecimento, pois esse sempre se apresenta como um produto pronto e acabado. A escola, então, tem um desconhecimento do próprio conhecimento e o senso comum, que é empirista/apriorista no campo epistemológico, é reducionista em sua dimensão paradigmática.
Resumo:
Este trabalho pretendeu minimizar a incerteza na tomada de decisões para projetos mais sustentáveis de intervenção em assentamentos precários. Para sua realização foi utilizada a estratégia de estudo de caso, optando-se pela escolha de um único estudo, na ilha Grande dos Marinheiros, aliada ao uso do método baseado em dados (Grounded Theory), como método para organização das informações coletadas. O estudo utilizou esta metodologia de análise sistêmica, que permitiu verificar as interinfluências entre os diversos aspectos apresentados pelo sítio (aspectos ecológicos do meio ambiente, aliados ao processo antrópico de alteração do habitat). Isto resulta na definição de categorias e subcategorias e seus cruzamentos, através de um sistema de matrizes, levou a constatação da categoria central. Assim, o abastecimento de água foi considerado como o tópico que deveria ser priorizado no processo de tomada de decisões. O sistema de cruzamento sistêmico também permitiu a criação de uma linha mestra (eixo principal) a ser utilizada na definição de futuros projetos de intervenção urbanohabitacional, que mostrou as dificuldades no abastecimento de água e as conseqüências advindas de sua estruturação. Ao final do trabalho, constataram-se as seguintes contribuições: não se recomenda a estruturação do transporte viário, o uso de energia eólica, hidroelétrica ou biomassa e estruturação de redes de distribuição de água entre continente e ilhas. Por outro lado, o estudo salienta as seguintes oportunidades: o saneamento deficitário possibilita a introdução de alternativas diferenciadas, como a utilização de banheiros secos e geração de biogás. As facilidades de obtenção das águas de chuva e a possibilidade real de melhora das águas superficiais devem ser opções preferenciais no abastecimento de água e a estruturação de um sistema de transporte fluvial (coletivo e individual) entre ilhas e continente.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
O presente estudo visa, a partir de uma noção dos componentes da sustentabilidade, aliada ao paradigma moriniano da complexidade e dos pressupostos da teoria neoinstitucional, analisar o papel do Programa Pró-Guaíba na estruturação de um campo organizacional sustentável. Para isso, buscou-se na análise do conteúdo de evidências empíricas, obtidas em fontes de dados primárias (entrevistas em profundidade) e secundárias (pesquisa documental), elementos que propiciassem uma melhor compreensão dos principais aspectos subjacentes a essa questão. Assim, o conceito de sustentabilidade proposto pelo Programa pôde ser melhor evidenciado possibilitando a sua avaliação, tanto no âmbito dos Subprogramas, como na análise do Programa como um todo. Da mesma forma, o arcabouço teórico adequado à compreensão do papel do Programa Pró-Guaíba na estruturação do campo organizacional foi desenvolvido propiciando, uma perspectiva complexificada dos processos institucionais, assim como, uma solução alternativa aos paradoxos da abordagem neoinstitucionalista. Assim, os aspectos que confirmam a estruturação do campo organizacional em decorrência das ações do Programa são evidenciados, contudo, não como um “fato dado como certo” como pressupõe alguns autores da análise neoinstitucional, mas como elementos que compõem um “campo organizacional ativo”, concebido dialogicamente a partir de interações que integram a unidade complexa Programa/campo/sustentabilidade a qual, por sua vez, institucionaliza/desinstitucionaliza recursiva e retroativamente os componentes do sistema por intermédio de processos complexos e dialógicos de adaptação e seleção, de forma a aumentar suas perspectivas de permanência e sobrevivência na ecoorganização mais ampla da qual faz parte.
Resumo:
Trata-se de um estudo sobre acesso e fluxos de utilização dos serviços de saúde em Municípios da “Metade Sul” do Rio Grande do Sul, que se insere no programa interdisciplinar “Evolução e diferenciação da agricultura, transformação do meio natural e desenvolvimento sustentável em espaços rurais do Sul do Brasil”. Tem como objetivo caracterizar a rede de serviços de saúde existente em Camaquã e a utilização da mesma, pela identificação dos fluxos de utilização, do acesso dos usuários aos serviços de saúde de média complexidade, e o motivo que os levam ao uso desses serviços. Possui abordagem quanti-qualitativa, sendo transversal e do tipo exploratório e descritivo. A análise das trajetórias, acesso, fluxos e motivos de utilização dos serviços de saúde de média complexidade demonstra fragilidades do Sistema Público de Saúde em nosso País, representado no microespaço (o Município). A análise é enriquecida quando se tem oportunidade de conhecer a trajetória terapêutica dos usuários e o fluxo de utilização desses serviços, em função de um problema de saúde atual. Observa-se que a dificuldade está, por um lado, na falta de resolutividade dos problemas de saúde dos usuários, o que os leva a procurarem vários serviços de saúde, com trajetórias diversas, nos diferentes Municípios da área de estudo e, por outro lado, nas diferentes concepções das necessidades de saúde. Evidencia-se, portanto, a urgência de um inevitável engajamento político em prol da regionalização.