971 resultados para A salvagem perdiçao: erro e ruína na Ilíada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A degradação ambiental do Noroeste do Estado do Rio de Janeiro tem se intensificado nas últimas décadas devido às práticas agrícolas não preservacionistas. Esta situação, que decorre do uso inadequado do solo, tem implicado em mudaas na oferta hídrica em grau variável nos municípios da região com prejuízos econômicos nas atividades dos pequenos e médios proprietários rurais e na qualidade de vida. A abordagem para enfrentar problemas deste tipo depende da participação efetiva das instâncias de governo e dos órgãos responsáveis pela gestão dos recursos hídricos. No âmbito da hidrologia os modelos hidrológicos com base no uso e ocupação do solo são ferramentas que podem auxiliar com ótimo custo e benefício a geração de informações em bacias hidrográficas, instrumentadas ou não. Os modelos são úteis ao planejamento e à tomada de decisão por possibilitarem a previsão de vazões e simulação de cenários sobre o uso do solo e qualidade da água. Neste sentido, o presente estudo pretende dar sua contribuição ao avaliar a adequabilidade do modelo SWAT simular o processo chuva-vazão na microbacia experimental de Santa Maria e Cambiocó, com 13,5 km2, localizada na região hidrográfica do rio Muriaé, afluente do rio Paraíba do Sul. O SWAT tem sido empregado em bacias agrícolas nos EUA, na Europa e, atualmente, na China, sudeste asiático e Irã, entre outros países, e na última década maior inserção no meio acadêmico brasileiro. A versão 2005 do modelo foi utilizada por meio da sua interface SIG para simular as vazões médias diárias com base na precipitação medida no intervalo de 15 minutos no período de 2005/2006. As vazões simuladas foram comparadas com as vazões observadas no exutório da microbacia. Foram testadas as ferramentas de análise de sensibilidade e autocalibração. O método de calibração manual foi usado para o ajuste por tentativa e erro. Os parâmetros ajustados corresponderam ao CN2 e ESCO. Os valores obtidos na calibração para os coeficientes estatísticos R2, NSE, PBIAS e RSR foram 0,80, 0,80, 7,02 e 0,45, respectivamente, indicando escore muito bom, o que foi confirmado pela inspeção dos hidrogramas. As saídas validadas para período diferente da calibração forneceram para os mesmos coeficientes os valores 0,84, 0,80, 25,92 e 0,44. Os dois primeiros, com escore muito bom. O valor de PBIAS, no limite do satisfatório, e RSR, muito bom. O desempenho permitiu concluir que a simulação com o SWAT foi adequada. Em relação às pesquisas que têm sido realizadas no Brasil os valores obtidos para os indicadores foram semelhantes, indicando a capacidade do modelo para novos estudos nesta microbacia que considerem os usos consuntivos e cenários de uso do solo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A água é essencial à manutenção da vida. No entanto, com as situações de estresse hídrico - disponibilidade hídrica inferior a 1.700 m per capita ao ano (FALKENMARK, 1989) - vivenciadas em diversos pontos do planeta, somadas ao acelerado crescimento da população mundial, os problemas relacionados ao uso da água tendem a aumentar. Neste contexto, a pegada hídrica (PH), que é um indicador de sustentabilidade ambiental, se torna uma importante ferramenta de gestão de recursos hídricos pois indica o consumo de água doce com base em seus usos. O presente trabalho objetiva mensurar a pegada hídrica em função das componentes industrial, doméstica e alimentar da população do bairro Rocinha, um aglomerado subnormal localizado no município do Rio de Janeiro. A pesquisa se deteve a um Estudo de Caso de 20 sub-bairros da comunidade. Sua abordagem foi quantitativa, contando com uma amostra de 203 domicílios, erro amostral de 7% e grau de confiaa de 93%. Para tal, foi utilizada como ferramenta de cálculo o modelo Water Footprint Network do ano de 2005. Os resultados indicaram que, em média, a PH dos indivíduos que compõem a amostra é de 1715 m/ano per capita assim divididos: PH de consumo doméstico de água de 175 m/ano per capita (479 l/hab.dia); PH de produtos agrícolas igual a 1470 m/ano per capita, e PH de produtos industrializados de 70 m/ano per capita. Os resultados obtidos sugerem que os indivíduos da amostra com uma maior despesa mensal tendem a ter pegadas hídricas industrial e total também maiores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentada uma nova abordagem para obter as respostas impulsivas biauriculares (BIRs) para um sistema de aurilização utilizando um conjunto de redes neurais artificiais (RNAs). O método proposto é capaz de reconstruir as respostas impulsivas associadas à cabeça humana (HRIRs) por meio de modificação espectral e de interpolação espacial. A fim de cobrir todo o espaço auditivo de recepção, sem aumentar a complexidade da arquitetura da rede, uma estrutura com múltiplas RNAs (conjunto) foi adotada, onde cada rede opera uma região específica do espaço (gomo). Os três principais fatores que influenciam na precisão do modelo arquitetura da rede, ângulos de abertura da área de recepção e atrasos das HRIRs são investigados e uma configuração ideal é apresentada. O erro de modelagem no domínio da frequência é investigado considerando a natureza logarítmica da audição humana. Mais ainda, são propostos novos parâmetros para avaliação do erro, definidos em analogia com alguns dos bem conhecidos parâmetros de qualidade acústica de salas. Através da metodologia proposta obteve-se um ganho computacional, em redução do tempo de processamento, de aproximadamente 62% em relação ao método tradicional de processamento de sinais utilizado para aurilização. A aplicabilidade do novo método em sistemas de aurilização é reforçada mediante uma análise comparativa dos resultados, que incluem a geração das BIRs e o cálculo dos parâmetros acústicos biauriculares (IACF e IACC), os quais mostram erros de magnitudes reduzidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata da normatização internacional relativa às criaas-soldado e aborda, sobretudo, a utilização de defesas baseadas em alegações de violação aos princípios da legalidade e em ocorrência de erro de proibição por réus de processos penais do Tribunal Especial para Serra Leoa e do Tribunal Penal Internacional. Diante disso, investiga se a proibição geral ao envolvimento infantil em conflitos armados e as infrações a essa vedação particularmente as condutas de recrutar, alistar e utilizar criaas como soldados integram o Direito Internacional Costumeiro e, em caso positivo, em que momento teria ocorrido a inserção nesse campo. Analisa, igualmente, se o argumento da boa-fé pode ser um elemento de defesa válido naqueles processos, com fundamento no relativismo cultural. Pretende, com isso, esclarecer o processo de criminalização daquelas condutas, além de identificar a posição hierárquica ocupada pelas normas em questão. Para tanto, recorre à verificação da prática estatal e da opinio juris relativas ao tema. Com isso, conclui que o regramento possui natureza costumeira e pertence ao domínio do jus cogens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente existem diferentes ferramentas computacionais para auxílio nos estudos de coordenação da proteção, que permitem traçar as curvas dos relés, de acordo com os parâmetros escolhidos pelos projetistas. Entretanto, o processo de escolha das curvas consideradas aceitáveis, com um elevado número de possibilidades e variáveis envolvidas, além de complexo, requer simplificações e iterações do tipo tentativa e erro. Neste processo, são fatores fundamentais tanto a experiência e o conhecimento do especialista, quanto um árduo trabalho, sendo que a coordenação da proteção é qualificada pela IEEE Std. 242 como sendo mais uma arte do que uma ciência. Este trabalho apresenta o desenvolvimento de um algoritmo genético e de um algoritmo inspirado em otimização por colônia de formigas, para automatizar e otimizar a coordenação da função de sobrecorrente de fase de relés digitais microprocessados (IEDs), em subestações industriais. Seis estudos de caso, obtidos a partir de um modelo de banco de dados, baseado em um sistema elétrico industrial real, são avaliados. Os algoritmos desenvolvidos geraram, em todos os estudos de caso, curvas coordenadas, atendendo a todas as restrições previamente estabelecidas e as diferenças temporais de atuação dos relés, no valor de corrente de curto circuito trifásica, apresentaram-se muito próximas do estabelecido como ótimo. As ferramentas desenvolvidas demonstraram potencialidade quando aplicadas nos estudos de coordenação da proteção, tendo resultados positivos na melhoria da seguraa das instalações, das pessoas, da continuidade do processo e do impedimento de emissões prejudiciais ao meio ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A leptina tem um papel importante na regulação do sistema reprodutivo além de seu papel principal na regulação do peso corporal e ingestão alimentar. O objetivo deste estudo foi avaliar o efeito da administração de leptina durante o período neonatal na função testicular da prole adulta. Vinte e quatro filhotes de 12 mães foram divididos em 2 grupos: Grupo leptina: injetados com 50 L de leptina (80ng/gPC, subcutânea) nos primeiros 10 dias de vida e Grupo Controle: injetados com o mesmo volume de solução salina. Todos os animais foram sacrificados aos 90 dias de vida. Parâmetros analisados: consumo alimentar, massa corporal, crescimento linear, data de início da puberdade, perfil lipídico, níveis séricos de estradiol e testosterona, expressão gênica (PCR em tempo real) e expressão proteica (Western blot) de ObRa, OBRb, aromatase, AR, ER, morfometria testicular, número, morfologia e viabilidade de espermatozoides. Os dados foram expressos como média erro padrão. A significância estatística foi determinada pelo teste t de Student. A Injeção de leptina levou a uma redução (p≤0,008) no consumo alimentar a partir do dia 26 ao 40 e do dia 70 em diante, enquanto que a massa corporal (p≤0,03) e o crescimento linear (p≤0,05) foram reduzidos do dia 26 até o dia 45. O peso da hipófise (p≤0,0006), hipotálamo (p≤0,01), próstata (p≤0,003), testículo (p≤0,008) e epidídimo (p≤0,004) e bexiga (p≤0,009) foram significativamente reduzidos pela injeção de leptina. A Injeção de leptina adiantou o início da puberdade (C=45,0 0,3; L=41,6 0,3; dias, P≤0,0001). Em relação ao perfil lipídico, a administração de leptina gerou um aumento nos níveis séricos de TG (C= 116,5 15,9; L=172,6 19,7; ng/dL, P≤0,05) e uma redução nos níveis de HDL (C=33 1,5; L = 24 3,5; ng/dL, P≤0,02). Os níveis séricos de testosterona também foram reduzidos pela leptina (C=5,2 1,0; L=1,1 0,3; ng/mL, P≤0,003). Todos os genes avaliados por PCR em tempo real mostraram um aumento na sua expressão: Obra (C=0,32 0,04; L=0,69 0,16; P≤0,04), OBRb (C=0,37 0,06; L=0,71 0,16; P≤0,03), AR (C=0,28 0,02; L=0,71 0,16; P≤0,02), Aromatase (C=0,31 0,04; L=0,53 0,09; P≤0,04), ER-α (C=0,79 0,03; L=0,93 0,03; P≤0,01), ER-β (C=0,29 0,03; L=0,73 0,16; P≤ 0,02). Por outro lado, a expressão proteica de OBR (C=4,4 0,29; L=6,6 0,84; P≤0,05), ER-α (C=0,4 0,02; L=0,6 0,05; P≤0,03) e aromatase (C=0,4 0,03; L=0,5 0,02; P≤0,04) aumentaram, enquanto que a expressão proteica de AR (C=0,16 0,01; L=0,09 0,01; P≤0,009) foi reduzida pela administração de leptina. A análise morfométrica mostrou que a leptina levou a um aumento da área total do túbulo seminífero (C=64,6 3,1; L=56,1 2,1;μm, P≤0,01), aumento da área luminal (C=40,6 2,3; L= 48,7 0,9; μm P≤ 0,004) e na altura do epitélio (C=21,5 1,2; L=24,6 1,1; μm, P≤0,03), enquanto que o comprimento do túbulo seminífero foi reduzido no grupo tratado (C=2200 350; L= 1100 110;cm, P≤0,006). A administração de leptina levou a um aumento no número total de espermatozoides (C=20x107 2x107; L=30x107 5x107;Cls/mL, P≤0,009) e no número de anormalidades (C=40,6 1,9; L=45,8 1,2, P≤0,049). Podemos concluir que a leptina tem um papel importante na morfologia e função testicular. A leptina parece ter efeito direto neste tecido uma vez que a expressão gênica e proteica de OBR, AR, ER e aromatase foram alterados pela administração da leptina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcaando taxas de erro mínimas e tempos de execução inferiores a meio segundo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os processos de beneficiamento têxtil, como o alvejamento, a purga, o tingimento e as lavagens são reconhecidamente impactantes ao meio ambiente, tanto do ponto de vista de consumo de água, quanto da geração de efluentes. Os efluentes têxteis oriundos dos processos de beneficiamento se caracterizam por apresentarem elevadas concentrações de substâncias emulsificantes, íons cloreto, sólidos e matéria orgânica, além de alta toxicidade. Mas sem dúvida, o maior problema desses efluentes deve-se a presença de corantes e pigmentos. Alguns parâmetros físico-químicos importantes no controle da poluição hídrica são de difícil medição e consequente monitoramento, principalmente pela ausência de legislação que expresse de maneira clara e objetiva os limites destes parâmetros. Este fato permite avaliações dúbias e contestações aos órgãos ambientais. Especificamente no caso do parâmetro cor, esta subjetividade obriga muitas indústrias a empregarem valores de controle de cor oriundos de outros estados, ou até mesmo de outros países. No Rio de Janeiro, de acordo com a NT-202-R-10 do INEA, o critério para cor é estar virtualmente ausente no efluente. Neste contexto, este estudo avaliou algumas metodologias empregadas na determinação da cor em um efluente têxtil. Para a medição de cor, foram empregadas três metodologias descritas na literatura. A primeira metodologia desenvolvida para análise de água, também utilizada para efluentes líquidos, se baseia em medições espectrofotométricas em um único comprimento de onda padrão (450nm ou 465nm), tendo como referência soluções de Pt-Co. Essa metodologia não abrange todas as tonalidades do espectro de cores possíveis para os efluentes têxteis. O segundo método se baseia na medição em três comprimentos de onda (436, 525 e 620nm), denominado índice DFZ. O último método investiga os valores máximos de absorbância, na faixa entre 350 e 700nm, na amostra. Os resultados obtidos mostraram que as correções dos valores de medição de cor utilizando os valores máximos de absorbância expressaram melhor a realidade dos dados experimentais, visto que eliminam um possível erro causado pela restrita faixa de detecção do método tradicional, numa região do espectro típica para tonalidades encontradas na água.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação testa e compara dois tipos de modelagem para previsão de uma mesma série temporal. Foi observada uma série temporal de distribuição de energia elétrica e, como estudo de caso, optou-se pela região metropolitana do Estado da Bahia. Foram testadas as combinações de três variáveis exógenas em cada modelo: a quantidade de clientes ligados na rede de distribuição de energia elétrica, a temperatura ambiente e a precipitação de chuvas. O modelo linear de previsão de séries temporais utilizado foi um SARIMAX. A modelagem de inteligência computacional utilizada para a previsão da série temporal foi um sistema de Inferência Fuzzy. Na busca de um melhor desempenho, foram feitos testes de quais variáveis exógenas melhor influenciam no comportamento da energia distribuída em cada modelo. Segundo a avaliação dos testes, o sistema Fuzzy de previsão foi o que obteve o menor erro. Porém dentre os menores erros, os resultados dos testes também indicaram diferentes variáveis exógenas para cada modelo de previsão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo objetiva conhecer os conteúdos veiculados à velhice no jornal Folha de S. Paulo. Trata-se de uma pesquisa exploratória, descritiva e documental, com abordagem metodológica quali-quantitativa pautada na Teoria das Representações Sociais. Foram analisados dois períodos: 1) de 01 de janeiro de 2001 até 31 de dezembro de 2003 e; 2) de 01 de janeiro de 2004 até 31 de dezembro de 2006. O jornal foi escolhido devido a: Prestígio, Credibilidade, Circulação e Acervo digitalizado. Foram consultados seis termos: Envelhecimento, Velhice, Terceira Idade, Idoso, Idosa e, Estatuto do Idoso. Foi desenvolvido um protocolo de pesquisa para análise da mídia impressa. Adotaram-se como critérios de exclusão: (1) Matérias repetidas entre termos, (2) Matérias com erro de leitura, (3) Matérias publicadas em extensões Regionais da Folha; e, (4) Relação da matéria com o objeto da pesquisa (classificadas como 0, 1 e 2). As matérias 2, consideradas como de estreita relação com a pesquisa conformaram a amostra para análise. Os dados foram submetidos às seguintes análises: analise estatística descritiva e análise de conteúdo temática. Contou-se com auxílio dos programas Excel e SPSS. Na apuração dos dados, constatou-se que, das 4108 matérias disponíveis no acervo do jornal, 346 preenchiam os critérios de inclusão. A análise revela que a cobertura da velhice na mídia não foi regular nos seis anos analisados, sendo que, houve um aumento de 5,78% de matérias publicadas no segundo período. O ano de maior publicação de matérias foi 2003, aspecto que coincide com a promulgação do Estatuto do Idoso. A difusão (67,34%) foi gênero moscoviciano mais utilizado pelo Jornal para tratar o tema da velhice. A análise das Seções indica que o tratamento da velhice por parte do Jornal está vinculado a diversas temáticas relacionadas com a cotidianidade dos leitores principalmente com assuntos relacionados à saúde e a aspectos econômicos. O estudo também revelou que a localização e o tamanho da matéria sugerem que trata-se de matérias de menor importância, não consideradas como de publicação imediata e que atraem menos a atenção do leitor. A análise do conjunto de antetítulos, títulos e subtítulos revelou que os termos utilizados para referir-se ao objeto de estudo estão vinculados a elementos derivados do conhecimento científico e da normativa sobre o assunto. A análise do material textual resultou em 4011 URs associadas a 57 unidades de significação revelando homogeneidade quantitativa nos dois períodos estudados. A agregação dessas unidades resultou em 10 categorias representacionais: Saúde e Doença; Sentidos de Envelhecer; Realidade Demográfica; Trabalho, Aposentadoria e Renda; Maus-tratos e discriminação; Legislação e proteção do idoso; Serviços e Mercado; Recreação e Voluntariado; Família e velhice e; Cognição na velhice. Constata-se que a velhice é representada no Jornal através de duas imagens que se contrapõem: A primeira imagem da velhice, denominada neste trabalhado como velha velhice está relacionada com os valores negativos tradicionalmente associados a essa fase relacionados a doença, a dependência, a vulnerabilidade física e cognitiva e as dificuldades econômicas. A segunda imagem designada de nova velhice está relacionada com valores considerados positivos relacionados com a busca do envelhecimento saudável. Constatou-se que essas representações são concomitantes nos dois períodos analisados. A mídia, sem dúvida, constitui um objeto transformador da realidade na medida em que é através dela que as representações sociais circulam em grande escala

Relevância:

10.00% 10.00%

Publicador:

Resumo:

MENEZES, Patrick Lourenço. Erros pré-analíticos em medicina laboratorial: uma revisão sistemática. 2013. 98 f. Dissertação (Mestrado em Saúde, Medicina Laboratorial e Tecnologia Forense) - Instituto de Biologia Roberto Alcântara Gomes, Universidade do Estado do Rio de Janeiro, Rio de Janeiro, 2013. A relevância evidente dos erros pré-analíticos como problema de saúde pública fica patente tanto no dano potencial aos pacientes quanto nos custos ao sistema de saúde, ambos desnecessários e evitáveis. Alguns estudos apontam que a fase pré-analítica é a mais vulnerável a erros, sendo responsável por, aproximadamente, 60 a 90% dos erros laboratoriais em consequência da falta orientação aos pacientes sobre os procedimentos que serão realizados no laboratório clínico. Objetivos: Sistematizar as evidências científicas relacionadas aos erros pré-analíticos dos exames laboratoriais de análises clínicas. Método: Uma revisão sistemática foi realizada, buscando as bases de dados do Medical Literature Analysis and Retrieval System Online (MEDLINE), Scopus(que inclui MEDLINE e Embase), ISI Web of Knowledge, SciFinder, Literatura Latino-Americana e do Caribe em Ciências da Saúde (Lilacs) (que inclui a Scientific Electronic Library Online SciELO) e o Índice Bibliográfico Espanhol de Ciências de Saúde (IBECS), para artigos publicados entre janeiro de 1990 e junho de 2012 sobre erros de exames laboratoriais que possam ocorrer na fase pré-analítica. Os estudos foram incluídos de acordo com os seguintes exames laboratoriais: hemograma, análise bioquímica do sangue total ou do soro, exames de coagulação sanguínea,uroanálise e exames hematológicos ou bioquímicos em outros materiais e categorizados pelo tipo de erro pré-analítico e pela frequência dos incidentes. Resultados: A busca nas bases de dados bibliográficas resultou no seguinte número de artigos recuperados: 547 na MEDLINE, 229 na Scopus, 110 na ISI, 163 na SciFinder, 228 na Lilacs e 64 na IBECS, perfazendo um total de 1.341 títulos. Ao fim da revisão sistemática, obteve-se um conjunto de 83 artigos para leitura de texto completo, dos quais 14 foram incluídos na revisão. Os estudos abrangeram diferentes tipos de laboratórios, setores técnicos e origem de erros, segundo a fase do processo laboratorial. Discussão: Sete artigos demonstraram erros de pedidos médicos, com uma alta variabilidade nos valores de incidência. Os seis artigos que estudaram erros de coleta de amostra observaram redução deste desfecho. As proporções de eventos adversos relatados e os impactos clínicos variaram, levando a consequências descritas como: erros decorrentes da flebotomia, recoleta de amostras, repetições de exames, atrasos na liberação de resultados de exames e possíveis danos ao paciente. Conclusões: O laboratório deve ter instruções por escrito para cada teste, que descreva o tipo de amostra e procedimento de coleta de amostra. Meios de identificação por código de barras, sistemas robóticos e analíticos reduzem os erros pré-analíticos. A melhoria da fase pré-analítica de testes laboratoriais permanece um desafio para muitos laboratórios clínicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa terá como objetivo compreender a tese do monismo, isto é, a tese de que existe uma única substância cuja unidade é garantida pela compatibilidade entre sua natureza absolutamente infinita e a multiplicidade real dos seus infinitos atributos. Mas o monismo não é aceito por todos os intérpretes como não problemático, o que, se comprovado, levaria o sistema de Espinosa à ruína. No primeiro capítulo, através da crítica de um destes intérpretes, Ferdinand Alquié, será colocado o problema do monismo. De acordo com este intérprete, Espinosa não consegue estabelecer racionalmente a possibilidade da substância absoluta. Veremos que, não conseguindo conceber como os infinitos atributos podem constituir a essência de uma substância que seja única, Alquié conclui que a tese do monismo é incompatível com a estrutura argumentativa do primeiro livro da Ética. Após a exposição do problema do monismo apresentado a partir de Alquié, será realizada uma tentativa de resgatar a coerência interna da obra de Espinosa. Este estudo visará explicitar os conceitos de substância e atributo, procurando acompanhar as duas etapas da construção do monismo ao longo das onze primeiras proposições da Ética, a saber: (1) a prova de que há uma única substância por atributo; (2) a prova de que há uma única substância para todos os atributos. Para avaar na compreensão dos problemas ontológicos envolvidos na construção do monismo, e de como a posição de Espinosa só pode ser compreendida a partir de uma transformação profunda dos conceitos herdados do cartesianismo, a pesquisa privilegiaas interpretações magistrais propostas por Martial Gueroult (Spinoza, I, Dieu; Aubier-Montaigne, Paris, 1968) e Gilles Deleuze (Spinoza et le problème de l'expression; Les Editions de Minuit, Paris, 1968). Estes intérpretes realizam cada um ao seu modo uma genealogia da substância absolutamente infinita e apresentam soluções que permitem pensar a tese do monismo como coerente. Estas soluções serão apresentadas e avaliadas para que se saiba em que medida elas conseguem expor o problema do monismo e solucioná-lo de maneira plausível.