1000 resultados para Mapeamento geomorfologico
Resumo:
Este estudo teve por objetivo estimar, pelo modelo CENTURY, a alteração no estoque de carbono orgânico (CO) de solos do Planalto do Rio Grande do Sul durante o período de expansão da agricultura e o potencial de recuperação do estoque de CO através de diferentes sistemas de manejo. Foram utilizados solos de cinco Unidades de Mapeamento (UM), sob vegetação original de campo e floresta: LATOSSOLO VERMELHO Distófico típico (UM Cruz Alta e Passo Fundo), LATOSSOLO VERMELHO Distroférrico típico (UM Santo Ângelo e Erechim) LATOSSOLO BRUNO Alumínico câmbico e (UM Vacaria). Avaliou-se a expansão da agricultura nas UM, a variação no conteúdo de CO dos solos por decomposição microbiana e erosão e a emissão ou seqüestro de CO2 em cenários de manejo com diferentes adições de C, métodos de preparo do solo e perdas de solo por erosão. Durante o período de expansão da agricultura (1900-1980), o uso de sistemas de cultura com baixa adição de C, pousio, queima de resíduos e preparo convencional do solo, ocasionou reduções estimadas de 31 a 45% no estoque original de CO dos solos. Com a melhoria nos eventos de manejo a partir de 1981, houve a recuperação parcial no estoque de CO. Considerando o balanço de CO e CO2 para a região em estudo (52506 km2), o cenário de manejo 1 (PC trigo/soja com queima) apresentou perda total estimada de 159517,0x103 Mg de CO e emissão de 299562,10x103 Mg de CO2 à atmosfera. Nos demais cenários, foram estimados incrementos de CO em relação ao cenário 1, atingindo, em 2050, valores correspondentes a 68,5% (cenário 2 - PR trigo/soja sem queima), 92,7% (cenário 3 - PD trigo/soja, aveia/soja, aveia/milho) e 98,1% (cenário 4 - PD trigo/soja, aveia/milho) do estoque original de CO. Devido a alta adição anual de C (6,0 Mg ha-1) e uso do plantio direto, o cenário 4 apresentou seqüestro líquido de 52173,32x103 Mg de CO2.
Resumo:
O objetivo dedste trabalho é investigar o projeto de banco de dados aplicado a Sistemas de Informações Geográficas (SIG), mais especificamente, do mapeamento de esquemas conceituais, orientado a objetos, para esquemas lógicos implementados por softwares de SIG comerciais. A transformação dos esquemas conceituais para os lógicos é realizado através da idedntificação de um conjunto de regras genéricas de mapeamento de qualquer esquema concecitual de banco de dados geográficos, baseados em um framework conceitual, para os esquemas lógicos proprietários dos diversos SIG existentes. A concretização desta tarefa de transformação é possível mediante a proposta de um ambiente de suporte. Esse ambiente fornece uma estrutura específica, constituída por uma linguagem formal, definida pelo padrão SAIF (Saptial Archive and Interchange Format), pela ferramenta FME (feature Manipulation Engine) e pela ferramenta CASE Rational Rose v.2000e. O conjunto de regras genéricas elaborado neste trabalho, é composto por dois subconjuntos. O primeiro define regras de correspondência, determinando uma relação entre os conceitos da realidade percebidos pelo Framework conceitual e a linguagem formal apresentada pelo padrão SAIF. O segundo subconjunto define regras de transformação, onde busca-se mapear os conceitos do paradigma da orientação a objetos par aos conceitos relacionais utilizazdos pela maioria dos softwares de SIG, disponíveis no mercado. Com a finalidade de validar a aplicabilidadee deste conjunto de regras de mapeamento e do ambiente de suporte proposto, este trabalho inclui também a implementação de um protótipo, o qual executa a automatização da trasnformação dos esquemas conceituais para os esquemas lógicos de banco de dados geográfico.
Resumo:
Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.
Resumo:
Plantas de batata (Solanum tuberosum L.) com sintomas de murcha bacteriana (MB) foram coletadas em 25 lavouras de 10 municípios de quatro regiões produtoras do Rio Grande do Sul (RS), de setembro a dezembro de 1999. Quatrocentos e noventa isolados de Ralstonia solanacearum foram obtidos e 96 e 4% identificados como biovares 1 e 2, respectivamente. A análise dos resultados da PCR-ERIC e BOX de 13 estirpes da biovar 1 e 72 da biovar 2 demonstrou baixa variabilidade genética. Através de RAPD foi possível associar local de origem do isolado com perfil eletroforético. Em outro experimento avaliou-se o comportamento de 14 cultivares e clones de batata cultivados nos períodos das safras de primavera de 1999 e 2000, em uma área naturalmente infestada com a biovar 2, em Caxias do Sul, RS. O número de plantas com sintomas foi registrado semanalmente. Os tubérculos produzidos por plantas assintomáticas foram coletados e submetidos a testes para detectar a presença de R. solanacearum. A área sob a curva de progresso da doença foi utilizada para comparar a resistência dos genótipos de batata à MB e o modelo logístico foi o que melhor se ajustou. A cultivar cruza 148 e o clone MB 03 mostraram-se como os mais resistentes, apresentando, no entanto, tubérculos com infecções latentes. As implicações da incidência de R. solanacearum em lavouras de batata e de sua variabilidade genética, assim como da resistência dos genótipos acompanhada de infecções latentes, no manejo integrado da MB no RS foram discutidas.
Resumo:
Neste trabalho é apresentado um método para medição de deslocamentos sem contato, utilizando sensores magnetoresistivos, os quais são sensibilizados pela variação do campo magnético produzido por um imã permanente em deslocamento no espaço. Os sensores magnetoresistivos possuem, internamente, uma ponte de Wheathestone, onde a resistência varia conforme varia o campo magnético, de modo que o circuito mais indicado para este caso é um amplificador e um filtro para cada sensor. O principal objetivo do trabalho é a obtenção de uma técnica para medir deslocamentos sem contato, e estender os resultados para medida de movimentos mandibulares. A montagem consiste de duas placas de celeron, distantes 30mm uma da outra e unidas por parafusos de polietileno. Em cada uma destas placas foram dispostos quatro sensores, num total de oito, sendo que para cada um deles existe um circuito de amplificação e filtragem do sinal de saída. Sob uma chapa de alumínio foi fixado este equipamento e uma mesa de calibração em 3D, a qual, após a obtenção da matriz de calibração, foi substituída por um emulador de movimento mandibular. Os parâmetros do modelo foram estimados através do método dos mínimos quadrados com auxílio do software Matlab, Release 12. Este software também foi utilizado para o sistema de aquisição de dados durante a realização dos experimentos. A imprecisão dos resultados obtidos na determinação dos deslocamentos, está na ordem de décimos de milímetros. O trabalho apresenta, também, o mapeamento do campo magnético do magneto utilizado nos experimentos através do software FEM2000 – Método de elementos finitos aplicado ao eletromagnetismo.
Resumo:
A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.
Resumo:
São analisados 106 pacientes submetidos a localização estereotáctica. Os procedimentos variaram de biópsias cerebrais, orientação de craniotomias, colocação de cateter em cavidade tumoral, drenagem de hematoma intracerebral e drenagem de abscesso cerebral. As orientações de craniotomias foram para MAVs, tumores e processos inflamatórios, em 21 pacientes. As biópsias cerebrais estereotácticas para diagnóstico anatomopatológico apresentaram um índice de positividade de 87,50 % com complicações em 1,20 %, em 82 casos. São analisadas estatisticamente as variáveis como: idade, sexo, procedimento realizado, diagnóstico anatomopatológico e volume das lesões. É discutida a imprecisão na aquisição e cálculo das coordenadas estereotácticas com a TC do encéfalo e verificada a precisão do método estereotomográfico com a utilização de um phanton. O maior erro das coordenadas foi de 6,8 mm.
Resumo:
Nas aplicações do mundo real, os dados mudam com o passar do tempo. Devido à característica dinâmica das aplicações, o esquema conceitual também pode mudar para se adaptar às mudanças que freqüentemente ocorrem na realidade. Para representar esta evolução, uma nova versão do esquema é definida e os dados armazenados são adaptados à nova versão. Entretanto, existem aplicações que precisam acessar também o esquema sob os diversos aspectos de suas mudanças, requerendo o uso de versionamento de esquemas. Durante a evolução do esquema, o versionamento preserva todas as versões deste esquema e seus dados associados, possibilitando a recuperação dos dados através da versão com a qual foram definidos. Ultimamente muitas pesquisas têm sido realizadas envolvendo as áreas de versionamento de esquemas e bancos de dados temporais. Estes bancos de dados provêm suporte ao versionamento de esquemas, pois permitem armazenar e recuperar todos os estados dos dados, registrando sua evolução ao longo do tempo. Apesar de muitos esforços, ainda não existem SGBDs temporais comercialmente disponíveis. A utilização de um modelo de dados temporal para a especificação de uma aplicação não implica, necessariamente, na utilização de um SGBD específico para o modelo. Bancos de dados convencionais podem ser utilizados desde que exista um mapeamento adequado entre o modelo temporal e o SGBD utilizado. Este trabalho apresenta uma abordagem para a implementação de um banco de dados temporal permitindo o versionamento de esquemas, usando um banco de dados relacional, tendo como base o modelo temporal TRM (Temporal Relational Model). Como forma de ilustrar apresenta-se um exemplo de implementação utilizando o SGBD DB2. O principal objetivo é avaliar diferentes técnicas de implementar e gerenciar o versionamento de esquemas em bancos de dados temporais. Para atingir esse objetivo, um protótipo foi desenvolvido para automatizar os mapeamentos do TRM para o DB2 e gerenciar o versionamento de esquemas e dados. Duas experiências de implementação foram realizadas utilizando formas diferentes de armazenar os dados - um repositório e vários repositórios - com o objetivo de comparar os resultados obtidos, considerando um determinado volume de dados e alterações. Um estudo de caso também é apresentado para validar as implementações realizadas.
Resumo:
XML é um padrão da W3C largamente utilizado por vários tipos de aplicações para representação de informação semi-estruturada e troca de dados pela Internet. Com o crescimento do uso de XML e do intercâmbio de informações pela Internet é muito provável que determinadas aplicações necessitem buscar uma mesma informação sobre várias fontes XML relativas a um mesmo domínio de problema. No intuito de representar a informação dessas várias fontes XML, o programador é obrigado a escolher entre muitas estruturas hierárquicas possíveis na criação dos esquemas de seus documentos XML. Um mesmo domínio de informação, desta maneira, pode então ser representado de diferentes formas nas diversas fontes de dados XML existentes. Por outro lado, verifica-se que as linguagens de consulta existentes são fortemente baseadas no conhecimento da estrutura de navegação do documento. Assim, ao consultar uma determinada informação semanticamente equivalente em várias fontes é necessário conhecer todos os esquemas envolvidos e construir consultas individuais para cada uma dessas fontes. Em um ambiente de integração, entretanto, é possível gerar um modelo global que representa essas fontes. Ao construir consultas sobre um modelo global, temos consultas integradas sobre estas fontes. Para se atingir esse objetivo, contudo, devem ser resolvidos os problemas da heterogeneidade de representação dos esquemas XML. Dessa forma, com base em uma abordagem de integração de esquemas, o presente trabalho define a linguagem de consulta CXQuery (Conceptual XQuery) que possibilita a construção de consultas sobre um modelo conceitual. Para possibilitar o retorno dos dados das fontes nas consultas feitas em CXQuery, foi desenvolvido um mecanismo de tradução da linguagem CXQuery para a linguagem de consulta XQuery 1.0. A linguagem XQuery 1.0 é umas das linguagens mais utilizadas para o acesso as fontes XML e permite que os dados possam ser retornados ao usuário. Para possibilitar essa tradução, foi definida uma metodologia de representação da informação de mapeamento através de visões XPath. Essa metodologia é relativamente eficaz no mapeamento das diferentes representações das fontes XML.
Resumo:
Foi realizado um estudo de caso exploratório, visando mapear a demanda por informações em um site Web mantido por uma organização de P&D para o agronegócio. Os dados utilizados consistiram na seqüência de clicks (clickstream) realizados por visitantes entre as páginas do site, e nas palavras-chave (keywords) inseridas no seu mecanismo de busca. Procurou-se abordar a análise considerando as estatísticas gerais de acesso oriundas do domínio ".br", as primeiras ações dos visitantes ao acessar a página principal e as necessidades explícitas por informações, simbolizadas pelas palavras-chaves utilizadas para busca no site. A discussão dos resultados foi orientada à descoberta de conhecimentos que pudessem elevar o nível de personalização e customização do site estudado, ressaltando-se, entre os quais, o mapeamento das origens das visitas ao site, da distribuição das sessões ao longo de diferentes janelas de tempo, das preferências primárias de navegação dos visitantes através dos links do site e das necessidades explícitas por informação relacionada ao tema do site. Considerando o contexto atual, onde cada vez mais as organizações tenderão a buscar e interagir com clientes e parceiros através da Web, pode-se concluir que o estudo revelou aspectos úteis relacionados as atividades de transferência de tecnologia e marketing para a organização em estudo.
Resumo:
A informação é hoje um dos principais recursos nos ambientes de trabalho. A informação compreendida habilita as pessoas e as organizações a atingir seus objetivos e a adquirir conhecimento. Entretanto, pouco se sabe sobre como a informação é utilizada e como os trabalhadores de conhecimento aprendem durante a realização de suas atividades. Entender a natureza do trabalho de conhecimento e torná-lo produtivo é um desafio. Esta pesquisa analisa os modelos conceituais de processo de trabalho de conhecimento encontrados na literatura, que identificam formas de aumentar a produtividade do trabalhador mapeando os estímulos do ambiente externo e observando as atividades realizadas e os resultados produzidos. Entretanto, os modelos dão pouca atenção ao processo cognitivo utilizado pelo trabalhador de conhecimento. Nesta pesquisa, propõe-se a ampliação dos modelos existentes, contemplando a atividade cognitiva no processo e o conhecimento no resultado. A abordagem é baseada na utilização da informação como recurso e como produto. Os objetivos deste trabalho são compreender melhor a forma como é utilizada a informação por trabalhadores de conhecimento e verificar como diferentes níveis de complexidade de informação influenciam o processo de trabalho e os resultados produzidos. Para testar os componentes do modelo proposto, bem como as suas relações, foi realizado um experimento com analistas de investimento que, a partir de um cenário, avaliam uma empresa. Os resultados obtidos revelaram a aderência do modelo conceitual proposto à realidade. Tanto no modelo como na atividade investigada, o processo de trabalho mostrou-se complexo e dinâmico, onde o uso e a produção de informações foi constante. O mapeamento do processo de análise de investimentos identificou o foco do trabalho na capacidade do analista gerenciar as informações e produzir conhecimento. A complexidade das informações foi identificada como um fator de influência sobre o seu uso e sobre o desempenho do analista, mas condicionadas a que essas informações fossem antes interpretadas e percebidas como relevantes.
Resumo:
Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos científicos e tecnológicos do desenvolvimento de software. No desenvolvimento de software, a fase de especificação dos requisitos é uma das mais importantes, visto que erros não detectados nesta são propagados para as fases posteriores. Quanto mais avançado estiver o desenvolvimento, mais caro custa reparar um erro introduzido nas fases iniciais, pois isto envolve reconsiderar vários estágios do desenvolvimento. A prototipação permite que os requisitos do software sejam validados logo no início do desenvolvimento, evitando assim a propagação de erros. Paralelamente, a utilização de métodos formais visa revelar inconsistências, ambigüidades e falhas na especificação do software, que podem caso contrário, não serem detectadas. Usar a prototipação de software juntamente com uma notação formal enfatiza a especificação do problema e expõe o usuário a um sistema “operante” o mais rápido possível, de modo que usuários e desenvolvedores possam executar e validar as especificações dos requisitos funcionais. O objetivo principal deste trabalho é instanciar uma técnica da área de Prototipação de Software que capacite o engenheiro de software gerar automaticamente protótipos executáveis a partir de especificações formais de tipos abstratos de dados, na notação PROSOFT-algébrico, visando a validação dos requisitos funcionais logo no início do desenvolvimento do software. Para tanto foi proposto um mapeamento da linguagem PROSOFT-algébrico para OBJ. Como OBJ possui um eficiente sistema de reescrita de termos implementado, a utilização deste propicia a prototipação de tipos abstratos de dados, especificados em PROSOFT-algébrico. Os componentes envolvidos na definição deste trabalho, assim como o mapeamento entre as linguagens, foram especificados algebricamente e implementados no ambiente de desenvolvimento de software PROSOFT. A implementação serviu para validar o mapeamento proposto através de dois estudos de caso. Por fim, são apresentadas as conclusões alcançadas e as atividades adicionais vislumbradas a partir do trabalho proposto.
Resumo:
Esta tese aborda o trabalho de cirurgiões de um hospital de Porto Alegre, RS, durante procedimentos eletivos de pequeno, médio e grande porte, visando o estudo das possíveis relações entre as demandas física e mental e a idade e a experiência do cirurgião. Inicialmente, foi feito um mapeamento de constrangimentos ergonômicos relacionados ao trabalho cirúrgico e, num segundo momento: i) o nível de demanda física imposta aos cirurgiões eletivos por meio de uma técnica de avaliação de posturas (REBA – Rapid Entire Body Assessment) (HIGNETT & McATAMNEY, 2000), da Freqüência Cardíaca (FC), da Pressão Arterial (PA) (sistólica e diastólica) e do nível de hormonal (Noradrenalina) e; ii) o nível de demanda mental envolvida no trabalho por meio do nível hormonal (cortisol, Adenocorticotrófico – ACTH e Adrenalina e, também, por meio da FC e PA). De maneira geral, ficou evidente que, independentemente do tipo de cirurgia, há a presença de carga física de pouca intensidade e de carga mental de média intensidade entre os cirurgiões. Os resultados apontaram, também, que os cirurgiões mais jovens (menos experientes) apresentam mais esforço mental do que físico, principalmente nas cirurgias de grande porte, e os mais experientes têm mais esforço físico nas cirurgias de pequeno porte e menos esforço mental, em comparação aos mais jovens (menos experientes), nas cirurgias de grande porte.
Resumo:
O volume de informações armazenadas e representadas em XML cresce rapidamente, abrangendo desde a Web até bancos de dados corporativos. Nesse contexto, surge a necessidade de mecanismos de recuperação de dados nesse formato que sejam, ao mesmo tempo, mais eficientes e mais eficazes. Várias propostas de linguagens de consulta têm sido feitas, dentre as quais podem ser citadas XQL, XML-QL e Quilt. Essas linguagens, todas textuais, são mais indicadas para manipulação programática ou para usuários experientes. Visando atingir também os usuários menos experientes, foram propostas linguagens visuais, tais como XML-GL e Xing. Todas essas linguagens, entretanto, apresentam duas características comuns: a) o usuário precisa conhecer, pelo menos em um certo nível, a estrutura interna dos documentos; b) a mesma informação, se armazenada de formas diferentes, exige instruções de consulta diferentes. A solução para esses problemas apresentada neste trabalho envolve a utilização de um modelo conceitual para representar os conceitos e as relações entre conceitos que ocorrem em documentos XML pertencentes a um determinado domínio de problema. O modelo conceitual é representado por uma ontologia do domínio do problema. Essa associação permite que consultas possam ser elaboradas tendo como base os conceitos da ontologia. Para permitir a associação da ontologia a conjuntos de documentos XML, apresentam-se regras de mapeamento que permitem definir se um documento XML é compatível com uma determinada ontologia. A partir dessa definição, propõe-se uma linguagem visual para consultas a documentos XML com base em ontologias, e apresenta-se uma proposta de interface visual para essa linguagem.
Resumo:
A gestão assistencial, cada vez mais, assume a responsabilidade integral do desempenho dos serviços e/ou unidades hospitalares, passando a responder não somente pelo desempenho assistencial como também pelo econômico. Em conseqüência, há maior compreensão do processo e dos recursos consumidos. Assim, os indicadores assistenciais (tempo médio de permanência, taxas de infecção, taxas de óbito) passam a ser as causas mais óbvias e verdadeiramente afins para explicar e revestir os valores econômicos. Todavia, ela necessita de um modelo administrativo que a norteie, possibilitando assim, um gerenciamento sistematizado, científico e qualificado, que atinja as metas traçadas, refletidas nos indicadores de resultado da qualidade assistencial e econômica. Este trabalho teve como objetivo desenvolver um modelo integrado ao Activity-Based Management (ABM) para melhor analisar a eficácia em Serviços de Emergência, buscando através do mapeamento dos processos e custeio das principais atividades, propor o gerenciamento dos Protocolos Clínicos e das Intervenções Terapêuticas - Therapeutic lntervention Scoring System (TISS) pelo método ABM. O desenvolvimento do modelo deu-se em duas etapas: I°) Identificação dos principais serviços prestados e mapeamento dos processos e principais atividades do Plantão Médico do Hospital Mãe de Deus, Porto Alegre -RS; 2°) Desdobramento da análise de Eficiência e Eficácia através de um sistema de informações, onde as entradas consideradas foram os processos, subprocessos e atividades mapeadas e custeadas pelo método Activity- Based Costing (ABe); os processadores foram os protocolos clínicos (ABM estratégico), as rotinas, o TISS e a estatística descritiva (ABM operacional); resultando na saída do sistema a análise da Eficácia (qualidade, tempo e custo) gerando relatórios da Eficácia Assistencial. Considerando-se que na saúde, mesmo contando com a utilização dos melhores recursos e tempos hábeis, existe a probabilidade de desfechos insatisfatórios, o modelo assumiu que para análise da qualidade, a avaliação está embasada num todo, onde se somam basicamente o tempo ideal preconizado para cada situação e a expectativa da utilização otimizada dos recursos (mão-de-obra, materiais, medicamentos, exames e equipamentos). Para análise dos tempos, considerou-se as evidências da obtenção de melhores resultados clínicos. Assim sendo, toda vez que os tempos forem além do preconizado pelos protocolos e rotinas, haverá ineficácia no processo, pois os objetivos assistenciais dos desfechos clínicos serão perturbados. E por fim, na análise dos custos, foram considerados ao mesmo tempo o meio e o fim da quantificação de ociosidade ou desperdício e da qualidade assistencial respectivamente. Fazer as coisas que devem ser feitas, com qualidade a custo menor, proporciona perspectivas de eficácia ao encontro dos objetivos da organização. Como resultados, pode-se constatar que os protocolos clínicos e as intervenções pelo TISS integrados ao ABM e com o uso da estatística descritiva, muito embora não sejam fórmulas rígidas a serem seguidas, mostraram indiscutivelmente a eficácia e a eficiência do processos assistencial, respeitadas as variabilidades de condutas e utilização de recursos explicáveis pela diversidade das doenças.