91 resultados para Integrais definidas

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A contabilidade sempre teve papel de destaque no processo informacional das empresas. Com o advento da globalização os temas de contabilidade internacional tem recebido grande destaque nos últimos tempos. Um dos importantes pontos da contabilidade internacional é o método de conversão das demonstrações financeiras da moeda local para moeda estrangeira. O SFAS52, que substituiu o SFAS8, define o método a ser utilizado para a conversão das demonstrações contábeis para moeda americana, e este método, para países de economia não inflacionária, é o método do câmbio de fechamento. A norma especifica, além da forma de conversão, a forma de definição da moeda funcional da empresa em questão. O Brasil tem se mostrado um país de economia não inflacionária mas com alta desvalorização cambial. A presente dissertação demonstrará as diferenças da aplicação da metodologia do SFAS52 pelo método do “Câmbio de Fechamento” e método “Monetário e Não Monetário” na Copesul e os respectivos impactos na informação produzida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Foram pesquisados resíduos organoclorados em três tecidos humanos: sangue, leite materno e tecido adiposo. Sangue foi colhido de 122 indivíduos, leite materno de 19 lactantes e tecido adiposo de 23 pacientes submetidos a diversas cirurgias. Para cada tecido foram compostos dois grupos: um urbano e outro residente em áreas de intensa atividade agrícola. Os resíduos organoclorados pesquisados foram: α - HCH; γ-HCH; Aldrin; Dieldrin; Endrin; Heptacloro; Heptacloro epóxido; HCB; Mirex; o,p´DDD; o,p´DDT; Oxiclordane; p,p´Metoxicloro; p,p´DDD; p,p´DDE; p,p´DDT e Transnonacloro. Todos os doadores responderam a questionário com quesitos sobre idade, sexo, peso, atividade, local de residência, contato ou não com pesticidas. Foi testada, através de análise estatística, a relação entre presença/ausência de organoclorados nos diferentes tecidos e os dados levantados no questionário. Todas as amostras urbanas foram negativas para os organoclorados analisados. As amostras obtidas nas áreas de atividade agrícola foram positivas, com níveis crescentes de contaminação na seqüência sangue, leite materno, tecido adiposo. Os resultados das análises do presente trabalho foram comparados com resultados préexistentes no Rio Grande do Sul. Entre a pesquisa atual e as pesquisas anteriores usadas para comparação, verificou-se diminuição da incidência de organoclorados em todos os tecidos pesquisados. O OC p,p´DDE foi o único organoclorado encontrado em todos os tecidos e em todas as pesquisas, tanto atuais como anteriores usadas para comparação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho consta do estudo do meio físico geotécnico do município de Porto Alegre visando a identificação e caracterização de unidades geotécnias, formadas por associações de solos com características físico-morfológicas e origem semelhantes. As unidades geotécnicas são definidas por um estudo de escritório baseado em levantamentos geológicos, pedológicos, topográficos e geográficos e também com o auxílio de fotografias aéreas, acompanhado de uma investigação de campo com a amostragem de perfis das diferentes unidades estimadas. Uma carta com a ocorrência das unidades geotécnicas e com a representação das estruturas geológicas de maior importância geotécina é construída. Destaque é dado ás unidades geotécnicas de solos subtropicais oriundos dos granitos, gnaisses e migmatitos. E executada uma avaliação das características físicas (mineralogia, granulometria, plasticidade, e índices físicos) e propriedades geotécnicas (compressibilidade, colapsividade e resistência ao cisalhamento) dos solos dos principais horizontes de perfis típicos destas unidades. São utilizados ensaios de caracterização, análises mineralógicas de rochas por lâminas delgadas, análises mineralógicas de argilas por meio de difratograma de raio X, ensaios de compressão confinada e ensaios de cisalhamento direto. Os resultados são apresentados em função dos principais horizontes de solos das unidades geotécnicas , são eles horizontes saprolíticos, formados por solo residual que ainda apresentam minerais primários e vestígios estruturais da rocha de origem e horizontes superficiais muitas das vezes laterizados. A análise foi feita à luz dos processos de formação e dos decorrentes fatores que determinam o comportamento geotécnico destes solos de intemperismo subtropical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertacao essencialmente sobre derivacoes em aneis mostra que toda derivacao de jordan num anel primo e livre de 2-torcao e uma derivacao usual. prova que toda derivacao de hasse-schmidt-jordan definida num anel semiprimo e livre de 2-torcao e uma derivacao de hasse-schmidt. finalisa com derivacoes algebricas d definidas num anel primo r (c0m unidade) e com suas respectivas extensoes d* ao anel de quocientes (a direita) de martingale de r denotado por q. e demonstrado entao, uma equivalencia entre as r, q e c-algebricidades de d e d*, onde c denota o centroide estendido de r.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de apresentações multimídia sincronizadas para Web se baseia na definição e especificação de relações entre objetos advindos de diversas mídias, que possuem requisitos específicos de desempenho, estando ainda sujeitos à atrasos randômicos durante sua transmissão. Neste sentido, foram definidos modelos para especificação de sincronismo que têm por objetivo estruturar a ordenação destas aplicações de maneira a executar as relações definidas pelo autor quando da exibição coerente no destino. Este trabalho realiza um estudo dos principais modelos utilizados no desenvolvimento de apresentações multimídia sincronizadas, principalmente relacionando-se ao ambiente Web. Desta forma, tornando possível identificar características, vantagens e desvantagens de seus usos, bem como verificar que o Modelo de Expressões Intervalares é adequado a este trabalho, embora ainda apresente algumas deficiências no controle de mídias e interações do usuário. Finalmente, visando solucionar as deficiências encontradas no Modelo de Expressões Intervalares, foi desenvolvida uma proposta de extensão para o mesmo. Ela consiste na criação de um controlador para a interação do usuário e para a manipulação de mídias, chamado mídia invisível; e na definição do operador Sinc-Point, que proporciona ao autor maior flexibilidade na definição da sincronização. Esta proposta apresenta as seguintes vantagens: possibilita ao autor criar sincronizações do tipo “overlaps”, que baseia o disparo de uma mídia durante a apresentação de outra; possibilita ao autor realizar um controle sobre o intervalo para a interação do usuário e para a apresentação de mídias; mantém a consistência da apresentação; não acarreta muitas mudanças no modelo original.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fácies marinhas e costeiras associadas a eventos transgressivos-regressivos quaternários ocorrem na Planície Costeira do Rio Grande do Sul e na plataforma continental adjacente. Enquanto as fácies expostas na planície costeira apresentam uma composição essencialmente siliciclástica, as fácies submersas, hoje aflorantes na antepraia e plataforma interna, apresentam, muitas vezes, uma composição carbonática. Formada por coquinas e arenitos de praia fortemente cimentados, estas fácies destacam-se do fundo oceânico como altos topográficos submersos. Os altos topográficos da antepraia têm atuado como fonte de boa parte dos sedimentos e bioclastos de origem marinha encontrados nas praias da área de estudo. Os bioclastos carbonáticos que ocorrem nestes locais caracterizam uma Associação Heterozoa, ou seja, são formados por carbonatos de águas frias, característicos de médias latitudes, e são representados principalmente por moluscos, equinodermos irregulares, anelídeos, crustáceos decápodos, restos esqueletais de peixes ósseos e cartilaginosos, cetáceos, tartarugas e aves semelhantes à fauna atual. Além destes bioclastos de origem marinha, as praias estudadas apresentam a ocorrência de fragmentos orgânicos provenientes de afloramentos continentais fossilíferos, contendo abundantes restos esqueletais de mamíferos terrestres gigantes extintos, das ordens Edentada, Notoungulada, Litopterna, Proboscidea, Artiodactila, Perissodactila, Carnívora e Rodentia. A concentração dos bioclastos na praia resultada da ação direta dos processos hidrodinâmicos que atuam na região de estudo (ondas de tempestade, deriva litorânea, correntes, etc). A variação no tamanho médio dos bioclastos encontrados ao longo da linha de costa está relacionada ao limite da ação das ondas de tempestades sobre o fundo oceânico, o qual é controlado principalmente pela profundidade. Os afloramentos-fonte submersos podem ser divididos em holocênicos e pleistocênicos. A tafonomia dos bioclastos pleistocênicos permite argumentar que após o penúltimo máximo transgressivo que resultou na formação do sistema deposicional Laguna-Barreira III (aproximadamente 120 ka) parte dos depósitos lagunares permaneceram emersos e não estiveram sob a ação marinha (barrancas do arroio Chuí, com a megafauna preservada in situ), enquanto que parte dos depósitos lagunares esteve sob ação direta do ambiente praial. Em diversas feições submersas observam-se coquinas contendo fósseis de mamíferos terrestres, indicando o retrabalhamento dos sedimentos lagunares em ambiente praial. As coquinas que apresentam moluscos pouco arredondados e de maior granulometria são aqui definidas, informalmente, como Coquinas do Tipo 1. Como conseqüência da última regressão pleistocênica (iniciada após o máximo transgressivo de 120 ka) estas coquinas ficaram submetidas a uma exposição subaérea. Este fato possibilitou a dissolução diferenciada dos componentes carbonáticos existentes nos depósitos (coquinas e arenitos) e sua recristalização (calcita espática) em ambientes saturados em água doce. A Transgressão Pós-Glacial (iniciada em torno de 18 ka) foi responsável pelo retrabalhamento dos arenitos e coquinas, recristalizando mais uma vez os elementos carbonáticos. Devido ao seu grau de consolidação estes depósitos resistiram à erosão associada à elaboração da superfície de ravinamento e encontram-se atualmente expostos na antepraia e, mesmo, na linha de praia atual. Pelo menos há 8 ka houve novamente um período favorável à precipitação de carbonato de cálcio, ocorrendo a litificação de rochas sedimentares em uma linha de praia numa cota batimétrica inferior a atual. Neste intervalo de tempo formaram-se as coquinas e arenitos não recristalizados, apresentando fragmentos de moluscos muito fragmentados e arredondados e de menor granulometria, aqui definidas, informalmente, como Coquinas do Tipo 2. A interpretação da tafonomia dos bioclastos de idade holocênica sugere pelo menos duas fácies deposicionais: (a) Fósseis articulados numa matriz areno-síltica, preenchidos por silte e argila, interpretados como originalmente depositados em regime transgressivo no ambiente Mesolitoral (foreshore) para Infralitoral superior (upper shoreface), com baixa ação de ondas. (b) Fragmentos de carapaças e quelas isoladas encontradas numa coquina fortemente cimentada por calcita espática, por vezes recristalizada, interpretados como concentrados na Zona de Arrebentação por ondas de tempestades. A dinâmica costeira atual retrabalha novamente os sedimentos inconsolidados enquanto as rochas sedimentares consolidadas (formadas pelas Coquinas Tipo 1 e 2) resistem parcialmente à erosão e constituem os altos topográficos submersos (parcéis) descritos neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Modelo Temporal de Versões (TVM Vesions Model) foi proposto com base na união de um modelo de versões com informações temporais. Esse modelo permite o armazenamento de alternativas de projeto, o armazenamento da história dos dados em evolução, bem cmoo a reconstrução do estado da base em qualquer data passada, sem o uso de operações complexas de backup e recovery. Para realizar consultas nesse modelo foi definida uma linguagem de consulta, a TVQL (Temporal Versioned Query Language). Além das consultas básicas realizadas pela linguagem padrão AQL, a TVQL permite novas consultas que retornam valores específicos das características de tempo e versões, estabelecendo um comportamento o mais homogêneo possível para elementos normais e temporais vesionados. O objetivo principal deste trabalho e possibilitar a realização de consultas TVQL em um banco de dados convencional. Nesse contexto, o mapeamento da TVQL é implementando através da tradução de todas as propriedades e funções definidas na TVQL para SQL. Para que isso seja possível é necessário queos dados também estejam nesse banco de dados. Então, faz-se necessário o mapeamento das classes da hierarquia do TVM, bem como das classes da aplciação, para o banco de dados. Adicionalmente, é implementado um protótipo de uma interface de consultas realizadas em TVQL, para testar o funcionamento tanto da TVL como do seu mapeamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O interesse de pesquisa da comunidade de Inteligência Artificial em Sistemas Multiagentes tem gerado o crescimento da utilização de técnicas de agentes nas mais diversas áreas da ciência da computação. Isso ocorre, principalmente, devido à variedade de aplicações em que esses sistemas podem ser usados, como por exemplo: jogos de computadores, interfaces adaptativas, simulação e controle de processos industriais. The Robot World Cup Initiative (RoboCup) é uma tentativa de estimular a área de Inteligência Artificial e, principalmente de Sistemas Multiagentes, por promover um problema padrão, jogar futebol, onde uma ampla cadeia de tecnologias podem ser integradas, examinadas e comparadas. A utilização do ambiente da RoboCup para a simulação de uma partida de futebol (simulador Soccerserver) permite a avaliação de diferentes técnicas de Sistemas Multiagentes (planejamento de estratégias, conhecimento em tempo real, colaboração de agentes, princípios de agentes autônomos, entre outros) e estimula as pesquisas, investigações e testes que possibilitem a construção gradativa de agentes avançados. O presente trabalho tem por objetivo o desenvolvimento de um time de futebol para o simulador Soccerserver. A idéia principal é desenvolver agentes jogadores que demonstrem um nível considerável de competência para a realização de suas tarefas, como percepção, ação, cooperação, estratégias pré-definidas, decisão e previsão. Inicialmente, apresenta-se uma visão geral sobre Inteligência Artificial Distribuída e sobre o simulador Soccerserver, pré-requisitos para o restante do trabalho. A seguir, é realizado um estudo sobre algumas arquiteturas de agentes (clientes) do Soccerserver. A arquitetura proposta na dissertação, suas principais características e a sua materialização em um protótipo desenvolvido correspondem à parte principal do trabalho. Finalmente são apresentados os testes realizados e as conclusões do trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta uma abordagem baseada em conceitos para realizar descoberta de conhecimento em textos (KDT). A proposta é identificar características de alto nível em textos na forma de conceitos, para depois realizar a mineração de padrões sobre estes conceitos. Ao invés de aplicar técnicas de mineração sobre palavras ou dados estruturados extraídos de textos, a abordagem explora conceitos identificados nos textos. A idéia é analisar o conhecimento codificado em textos num nível acima das palavras, ou seja, não analisando somente os termos e expressões presentes nos textos, mas seu significado em relação aos fenômenos da realidade (pessoas, objetos, entidades, eventos e situações do mundo real). Conceitos identificam melhor o conteúdo dos textos e servem melhor que palavras para representar os fenômenos. Assim, os conceitos agem como recursos meta-lingüísticos para análise de textos e descoberta de conhecimento. Por exemplo, no caso de textos de psiquiatria, os conceitos permitiram investigar características importantes dos pacientes, tais como sintomas, sinais e comportamentos. Isto permite explorar o conhecimento disponível em textos num nível mais próximo da realidade, minimizando o problema do vocabulário e facilitando o processo de aquisição de conhecimento. O principal objetivo desta tese é demonstrar a adequação de uma abordagem baseada em conceitos para descobrir conhecimento em textos e confirmar a hipótese de que este tipo de abordagem tem vantagens sobre abordagens baseadas em palavras. Para tanto, foram definidas estratégias para identificação dos conceitos nos textos e para mineração de padrões sobre estes conceitos. Diferentes métodos foram avaliados para estes dois processos. Ferramentas automatizadas foram empregadas para aplicar a abordagem proposta em estudos de casos. Diferentes experimentos foram realizados para demonstrar que a abordagem é viável e apresenta vantagens sobre os métodos baseados em palavras. Avaliações objetivas e subjetivas foram conduzidas para confirmar que o conhecimento descoberto era de qualidade. Também foi investigada a possibilidade de se realizar descobertas proativas, quando não se tem hipóteses iniciais. Os casos estudados apontam as várias aplicações práticas desta abordagem. Pode-se concluir que a principal aplicação da abordagem é permitir análises qualitativa e quantitativa de coleções textuais. Conceitos podem ser identificados nos textos e suas distribuições e relações podem ser analisadas para um melhor entendimento do conteúdo presente nos textos e, conseqüentemente, um melhor entendimento do conhecimento do domínio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação propõe um modelo conceitual para a estabilização de processos de manufatura através da utilização integrada de ferramentas de engenharia de qualidade. A metodologia consiste de uma série de etapas cronológicas bem definidas, que permitem identificar e controlar parâmetros de processo mais significativos ligados à construção das características de qualidade consideradas mais importantes pelos clientes. Ao longo do texto, faz-se uma revisão da literatura existente sobre o assunto, apresentam as etapas do modelo conceitual proposto e as ferramentas de engenharia de qualidade eficientes no cumprimento destas etapas. Logo após, a aplicação do modelo conceitual proposto de estabilização de processos proposta é ilustrada através de um estudo de caso no setor de pintura automotiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de uma emergência por pacientes com problemas médicos eletivos contribui para a demanda excessiva e impede de acesso a pacientes com emergência verdadeira. O presente estudo se propôs: (1) investigar as características do usuário da emergência em relação a aspectos demográficos, local de moradia e tempo que apresenta os sintomas que o levaram a consultar; (2) identificar as diferenças da demanda entre o final de semana e durante a semana; (3) investigar a prevalência de saúde mental, alcoolismo, doença coronariana e hipertensão; (4) avaliar como é a utilização e o acesso a serviços de saúde para pacientes que referem ter um médico definido em comparação com quem refere não ter; (5) avaliar a satisfação dos pacientes com o atendimento na emergência e (6) verificar se o atendimento através de um médico definido ou em serviço de atenção primária em saúde diminui o afluxo de casos não urgentes aos serviços de emergência. Foi realizado um estudo transversal na Emergência do Hospital N.S. da Conceição de Porto Alegre (RS) no período de 6 de janeiro a 25 de junho de 1996, tendo sido incluídos 20 dias escolhidos entre o meio-dia de sábado e o meio-dia de domingo, para caracterizar a demanda do final de semana, e o meio-dia de segunda-feira e meio-dia de terça-feira, para a dos outros dias. Fizeram parte da amostra 553 pacientes selecionados através de amostragem aleatória sistemática, com uma taxa de resposta de 88%. A coleta de dados consistiu de questionário de 156 questões aplicado aos pacientes. O registro e análise dos dados foram realizados utilizando-se os programas Epi-Info, EGRET e SPSS. As análises incluíram tabulações simples para determinação de prevalência das condições investigadas e regressão logística para avaliar o efeito conjunto das variáveis independentes sobre cada uma das variáveis dependentes. A população que freqüenta a emergência do HNSC é composta de jovens, predominantemente do sexo feminino, mora em Porto Alegre (especialmente, no bairro Sarandi) e na Grande Porto Alegre (especialmente, Alvorada), desloca-se preferencialmente de ônibus até o serviço de emergência, vem acompanhada, na maioria das vezes, de algum familiar, e a maioria decide consultar por iniciativa própria ou por indicação de algum familiar. Os homens internam com maior freqüência. Os serviços de atenção primária representaram 23% do atendimento habitual dos pacientes. As consultas foram definidas pelos emergencistas como de emergência em 15% dos casos, de urgência em 46%, e programáveis em 39% poderiam ser programadas. A prevalência de hipertensão foi 19%; de angina, 13%; de alcoolismo, 16%; de problema psiquiátrico menor, 32% entre os homens e 51% entre as mulheres (p< 0,0001). Como desfecho da consulta, 73% dos pacientes foram encaminhados para o domicílio ou para um serviço especializado, 10% foram para sala de observação e para apenas 5% foi indicada a internação. A maioria dos pacientes referiram estar satisfeitos com o atendimento. Os que consultaram no final de semana apresentaram, em média, um tempo menor de sintomas até decidir consultar, um menor tempo de deslocamento até o serviço de emergência, maior satisfação, média de idade maior, maior proporção de moradores de Porto Alegre e foram levados de carro até a emergência mais do que aqueles que consultaram durante a semana. O modelo de regressão logística identificou as variáveis independentes determinantes de ter um médico definido: consulta habitual em atenção primária em saúde (RC=3,22 IC95%=2,04-5,09), consulta definida como emergência ou urgência (RC=2,46 IC95%=1,55-3,92) e afastamento do trabalho (RC=1,59 IC95%= 1,03-2,45). Este resultado demonstra que o paciente que habitualmente consulta em serviços de atenção primária tem mais probabilidade para ter a continuidade no atendimento. A consulta ser de emergência ou de urgência apresentou associação significativa com as seguintes variáveis independentes, após ser colocada num modelo de regressão logística: pacientes internados ou em observação (RC=5,80 IC95%=3,33-10,17), costume de consultar com o mesmo médico (RC=2,98 IC95%=1,84-4,80) e ida de carro até a emergência (RC=2,67 IC95%=1,75-4,05). A variável hábito de consultar em serviço de atenção primária deixou de ficar estatisticamente significativa ao ser colocada no modelo de regressão logística. Este resultado revela que pacientes com médico definido têm três vezes mais chances de consultar por um problema de emergência no serviço de emergência do que aqueles que não têm um médico definido. Assim, uma estratégia para reduzir a ocorrência de consultas não urgentes em serviços de emergência é o paciente ter tal vínculo. No entanto, aqueles pacientes que referiram o posto de saúde como local onde habitualmente consultam não evitam, necessariamente, a utilização de um serviço de emergência por motivo considerado como programável. É necessário otimizar o atendimento de pacientes com problemas não urgentes que chegam à emergência através de estratégias no nível de atenção primária – especialmente possibilitando o atendimento médico continuado -, onde uma abordagem integral com ênfase na prevenção garanta um atendimento de melhor qualidade e custo menor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.