58 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Segundo O`Kane et al, em 2008, foi demonstrado que 88,9% dos erros laboratoriais são realizados na fase pré-analítica. No laboratório de análises clínicas, o sistema de controle da qualidade pode ser definido como toda a ação sistemática necessária para dar confiança e segurança em todos os exames e prevenir a ocorrência de erros. O tempo de armazenamento pode variar de dias a meses ou mesmo anos, influenciando na definição da temperatura de estocagem. O armazenamento de longo prazo pode resultar na criopreservação inadequada para determinados analitos e pode desnaturar as lipoproteínas. Objetivos: Este trabalho teve como objetivo avaliar a fase pré-analítica, controle da qualidade interno e também avaliar o efeito do congelamento (- 80C) quanto ao tempo de armazenamento do soro e plasma de sangue colhido com ácido etilenodiamino tetra-acético (EDTA). As dosagens foram realizadas no Laboratório de Lípides LabLip, e estocadas em - 80 C por três anos, as mesmas foram redosadas no Serviço de Patologia Clínica da Policlínica Piquet Carneiro da UERJ com metodologias iguais e realizada a comparabilidade dos resultados. Foram analisados o perfil lipídico (CT, HDLc e TG) e PCR-US de 103 amostras, 73 no soro e 30 no plasma em dois laboratórios altamente qualificados. Discussão: Após redosagem foram encontrados nas dosagens de HDLc e CT resultados diminuídos respectivamente (correlação coeficiente no soro 0,48 e 0,62) teste t pareado no soro (CT p 0,0012 e HDLc p 0,0001). Conclusões: Os dados obtidos nas avaliações dos resultados de diferentes laboratórios e tempo de estocagem revelaram que as amostras quando armazenadas por um longo período após redosagem no soro, apresentaram diferenças em certos analitos, tais como CT e HDLc, no qual obteve-se resultados significativamente diminuídos, diferentemente no plasma, que após três anos de estocagem a -80C foram redosados e aplicados no teste t pareado, os analitos CT e PCR-US mantiveram a estabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, tem sido observado o aumento da oferta de bebidas com elevado conteúdo calórico e com grandes quantidades de açúcar de rápida absorção. Essas bebidas adoçadas, cujo consumo tem aumentado no Brasil assim como em outras partes do mundo, são consideradas fatores de risco para obesidade e diabetes. O consumo de bebidas adoçadas pode levar ao balanço energético positivo e consequentemente ao ganho de peso. Essa associação pode ser explicada pelo mecanismo regulatório de compensação de calorias líquidas. Compensação calórica ocorre quando há redução no consumo de calorias provenientes de alimentos sólidos para compensar as calorias líquidas adicionadas à refeição ou dieta. No entanto, não há consenso em relação a evidências da compensação calórica, dificultando a elaboração de recomendações sobre essas bebidas em saúde pública. Razões para a falta de consenso incluem a diversidade de desenhos de estudos, experimentos realizados em ambientes controlados e não reais em relação ao consumo de alimentos e bebidas, e estudos com amostras pequenas ou de conveniência. Esta dissertação estudou a associação entre bebidas adoçadas e consumo calórico, verificando se calorias de bebidas adoçadas são compensadas em refeições realizadas em um ambiente pragmático. Os dados de consumo calórico de 34.003 indivíduos, com idade igual ou superior a dez anos, foram obtidos pelo Inquérito Nacional de Alimentação 2008-2009, em todo território nacional. Os participantes completaram dois registros alimentares, em dias não consecutivos da mesma semana. Foram selecionadas as refeições dos períodos café da manhã, almoço e jantar de cada indivíduo em cada um dos dias. Para cada refeição, foi calculado o valor calórico de alimentos e de bebidas adoçadas consumidos. Para testar a compensação calórica, um modelo de regressão linear multinível com efeitos mistos foi ajustado para analisar cada período. A variável reposta utilizada foi consumo calórico proveniente de alimentos e a variável explicativa foi consumo calórico de bebida adoçada na refeição. Os efeitos intra-indivíduo da bebida adoçada no consumo calórico foram estimados e interpretados. Esses efeitos são considerados não-enviesados pois são controlados pelas características constantes dos indivíduos, tendo assim o indivíduo atuando como seu próprio controle na análise. Covariadas incluídas no modelo foram variáveis da refeição: local, dia da semana, horário, consumo calórico na refeição anterior e intervalo de tempo desde a última refeição; e do indivíduo: sexo, faixa etária, categoria de Índice de Massa Corpórea e quartos de renda per capita. Efeitos aleatórios dos indivíduos e dos domicílios foram incluídos no modelo para melhor estimar a estrutura de erros de dados correlacionados. A compensação calórica foi de 42% para o café da manhã, não houve compensação no almoço e para o jantar, compensação variou de 0 a 22%, tendo interação com quartos de renda per capita. A conclusão desta dissertação é que as bebidas adoçadas não são completamente compensadas em refeições realizadas em ambiente pragmático. Assim, a redução do consumo de bebidas adoçadas em refeições pode ajudar a diminuir o consumo calórico excessivo e levar a um melhor controle do peso em indivíduos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi estabelecer um modelo empregando-se ferramentas de regressão multivariada para a previsão do teor em ésteres metílicos e, simultaneamente, de propriedades físico-químicas de misturas de óleo de soja e biodiesel de soja. O modelo foi proposto a partir da correlação das propriedades de interesse com os espectros de reflectância total atenuada no infravermelho médio das misturas. Para a determinação dos teores de ésteres metílicos foi utilizada a cromatografia líquida de alta eficiência (HPLC), podendo esta ser uma técnica alternativa aos método de referência que utilizam a cromatografia em fase gasosa (EN 14103 e EN 14105). As propriedades físico-químicas selecionadas foram índice de refração, massa específica e viscosidade. Para o estudo, foram preparadas 11 misturas com diferentes proporções de biodiesel de soja e de óleo de soja (0-100 % em massa de biodiesel de soja), em quintuplicata, totalizando 55 amostras. A região do infravermelho estudada foi a faixa de 3801 a 650 cm-1. Os espectros foram submetidos aos pré-tratamentos de correção de sinal multiplicativo (MSC) e, em seguida, à centralização na média (MC). As propriedades de interesse foram submetidas ao autoescalamento. Em seguida foi aplicada análise de componentes principais (PCA) com a finalidade de reduzir a dimensionalidade dos dados e detectar a presença de valores anômalos. Quando estes foram detectados, a amostra era descartada. Os dados originais foram submetidos ao algoritmo de Kennard-Stone dividindo-os em um conjunto de calibração, para a construção do modelo, e um conjunto de validação, para verificar a sua confiabilidade. Os resultados mostraram que o modelo proposto por PLS2 (Mínimos Quadrados Parciais) foi capaz de se ajustar bem os dados de índice de refração e de massa específica, podendo ser observado um comportamento aleatório dos erros, indicando a presença de homocedasticidade nos valores residuais, em outras palavras, o modelo construído apresentou uma capacidade de previsão para as propriedades de massa específica e índice de refração com 95% de confiança. A exatidão do modelo foi também avaliada através da estimativa dos parâmetros de regressão que são a inclinação e o intercepto pela Região Conjunta da Elipse de Confiança (EJCR). Os resultados confirmaram que o modelo MIR-PLS desenvolvido foi capaz de prever, simultaneamente, as propriedades índice de refração e massa específica. Para os teores de éteres metílicos determinados por HPLC, foi também desenvolvido um modelo MIR-PLS para correlacionar estes valores com os espectros de MIR, porém a qualidade do ajuste não foi tão boa. Apesar disso, foi possível mostrar que os dados podem ser modelados e correlacionados com os espectros de infravermelho utilizando calibração multivariada

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A produção de H2S (sulfeto de hidrogênio) é um dos principais problemas na indústria do petróleo, sendo esta uma das causas da corrosão de tanques de estocagem e tubulações. Essa produção é possibilitada devido à injeção de água do mar durante o processo de recuperação secundária do petróleo, onde alguns micro-organismos presentes nessa água, tais como as bactérias anaeróbias heterotróficas totais (BANHT) e as bactérias redutoras de sulfato (BRS), que promovem a redução do sulfato a sulfeto. Atualmente, o método de quantificação destes micro-organismos é a técnica do Número Mais Provável (NMP) que estima o resultado em aproximadamente 28 dias. No presente trabalho foi utilizada a metodologia da produção semi-contínua de sulfeto biogênico pelo período de 15 dias, com o intuito de correlacionar com os resultados das quantificações de BANHT e BRS através da técnica convencional do NMP. Foram analisadas amostras de diferentes procedências da indústria do petróleo, apresentando variação na salinidade de 0 a 16 g.L-1. O objetivo deste procedimento foi avaliar as velocidades específicas e instantâneas de produção de H2S, sugerindo, desta forma, quais amostras apresentam maior potencial para a produção biogênica de sulfeto e em quais condições essa produção se dá. Observou-se que em todas as amostras a geração do H2S se dá de forma crescente até a estabilização desta produção, sendo esta obtida quase sempre em seis dias (144h) do crescimento microbiano. A produção do sulfeto biogênico se deu de forma mais intensa nas amostras do fundo de tanque de estocagem de óleo e da água de formação. A quantificação das BANHT e das BRS foram avaliadas pelo método do NMP de acordo com a tabela de Harrigan, a qual subestima a população microbiana, desconsiderando erros provenientes da técnica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos temas mais estudados na área de finanças, em especial na análise de créditos, são os modelos que buscam prever a capacidade das empresas em se manterem solventes. Via de regra, tais estudos buscam, dentre vários indicadores, aqueles que se mostram mais apropriados para realizar tal predição. Nesse trabalho propõe-se um outro olhar sobre os modelos de previsão. Partindo de modelos já consagrados na literatura, escolheram-se os indicadores contábeis mais utilizados, que foram comparados, através da Análise Discriminante e da Regressão Logística, com os indicadores oriundos do Modelo Dinâmico. O objetivo do estudo foi verificar se os indicadores do Modelo Dinâmico oferecem melhores resultados que os indicadores tradicionais. O trabalho se baseia numa amostra com 48 empresas, composta de 24 insolventes e as outras 24 ditas como saudáveis, tratadas como pares das insolventes, escolhidas dentro do mesmo setor econômico de cada uma das insolventes. Além disso, foi incluída no estudo a classificação de empresas de Fleuriet como variável qualitativa. Os resultados obtidos não apresentam evidências sobre a superioridade de um ou outro conjunto de indicadores, mas, os melhores resultados alcançados derivam da inclusão da classificação de empresas de Fleuriet, seja através da Análise Discriminante, seja através da Regressão Logística, conseguindo no melhor dos resultados, um percentual de acerto total de 83,3%. A análise minuciosa dos erros de classificação ensejou uma proposta de reordenação dos tipos de situação de liquidez originalmente propostos por Fleuriet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudo de comparação entre dois métodos de coleta de dados, através da aplicação de um software, para avaliação dos fatores de risco e danos no trabalho de enfermagem em hospital. Objetiva analisar o uso do software (eletrônico) em comparação com o uso do instrumento impresso. Trata-se de um estudo estatístico, descritivo com abordagem quantitativa, desenvolvido nas enfermarias dos Serviços de Internações Clínicas e Serviços de Internações Cirúrgicas de um Hospital Universitário, no estado do Rio de Janeiro. A população do estudo foram os trabalhadores de enfermagem das unidades. A amostra foi definida por meio de amostragem não-probabilística e alocação da amostra ocorreu de forma aleatória em dois grupos, denominados grupo impresso e grupo eletrônico, com 52 participantes cada. Previamente a coleta de dados foram implementadas estratégias de pesquisa denominada teaser, através da comunicação digital aos trabalhadores. Posteriormente, foi ofertado aos participantes do formato impresso o questionário impresso, e os participantes do formato eletrônico receberam um link de acesso a home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 47 trabalhadores do grupo impresso (90,3%), e 17 trabalhadores do grupo eletrônico (32,7%). A aplicação do questionário impresso revelou algumas vantagens como o número de pessoas atingidas pela pesquisa, maior interação pesquisador e participante, taxa de retorno mais alta, e quanto às desvantagens a demanda maior de tempo, erros de transcrição, formulação de banco de dados, possibilidades de resposta em branco e erros de preenchimento. No formato eletrônico as vantagens incluem a facilidade de tabulação e análise dos dados, impossibilidade de não resposta, metodologia limpa e rápida, e como desvantagens, o acesso à internet no período de coleta de dados, saber usar o computador e menor taxa de resposta. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores perceberam a existência dos riscos ocupacionais, principalmente os ergonômicos, biológicos e de acidentes. Os principais danos à saúde provocados ou agravos pelo trabalho percebidos pelos trabalhadores foram os problemas osteomusculares, estresse, transtornos do sono, mudanças de humor e alterações de comportamento e varizes. Pode-se afirmar que não ocorreram diferenças acentuadas de percentual ao comparar a percepção dos trabalhadores do grupo impresso e do grupo eletrônico frente aos riscos e danos à saúde. Conclui-se que os dois processos de coleta de dados tiveram boa aceitação, no entanto, deve ser indicada a aplicação do questionário eletrônico junto com a ferramenta de acesso, no caso o computador, tablet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa tem como objeto os fatores que influenciam a mensuração glicêmica realizada pela enfermagem em pacientes que recebem insulina contínua intravenosa utilizando glicosímetros portáteis à beira leito. Vários fatores podem influenciar a mensuração glicêmica, tais como a amostra sanguínea, a calibração do aparelho, a estocagem das fitas-teste, o hematócrito dos pacientes, o uso de vasoaminas e falhas do operador. A partir da Tese de que: A identificação dos fatores que influenciam a mensuração glicêmica realizada pela enfermagem através de glicosímetros é determinante para a eficiência das barreiras de salvaguarda voltadas para a minimização de falhas na sua execução, a fim de garantir resultados glicêmicos confiáveis e, consequentemente, realizar a titulação da insulina com segurança, teve-se como objetivo geral propor ações de enfermagem que funcionem como barreiras para diminuir as falhas nas mensurações glicêmicas realizadas pela enfermagem em pacientes que recebem infusão contínua de insulina. Espera-se contribuir com ações para garantir a adequação e o controle rigoroso da insulina administrada. Estudo observacional, transversal, prospectivo com abordagem quantitativa na análise dos dados, em uma unidade intensiva cirúrgica cardiológica de um hospital público do Rio de Janeiro. As variáveis do estudo foram submetidas a tratamentos estatísticos não paramétricos e às medidas de associação. Foram investigados 42 pacientes com observação de 417 glicemias. Predominaram pacientes do sexo feminino (57,14%), média de idade de 48 (15,85) anos, sem insuficiência renal e sem tratamento dialítico (90,48%). Observou-se PAM com média de 77(10,29) mmHg, uso de vasoaminas (80,95%), PaO2 ≥ 90mmHg em 85,71% e hematócrito <35% em 71,42%. Encontrou-se uma incidência de hipoglicemia de 35,7%, sendo a população dividida em dois grupos, o primeiro (G1) com pacientes que apresentaram hipoglicemia ≤ 60mg/dl (n=15), e o segundo (G2), com pacientes sem hipoglicemia (n=27). O hematócrito baixo foi a característica clínica que apresentou maior associação com a hipoglicemia. Pacientes com esta condição apresentaram 5,60 vezes mais risco de apresentarem hipoglicemia. O uso de vasoaminas elevou 3,3 vezes o risco de hipoglicemia em pacientes com estas medicações. A realização de cirurgias de emergência, a presença de insuficiência renal com tratamento dialítico, e a elevação da PaO2 acima de 90mmHg também apresentaram associação positiva com a hipoglicemia. Das 417 mensurações observadas, predominou o uso de amostra sanguínea de origem arterial. Observou-se que em todas as etapas da técnica de mensuração houve desvio de execução, com exceção de compressão da polpa digital. Os desvios observados que mostraram associação positiva (RR>1) para pacientes com hipoglicemia foram: a falta de calibração do glicosímetro, a falta de verificação da validade/integridade da fita teste, a falta da higienização das mãos e a falta da coleta de até 1 ml de sangue. Construiu-se uma revisão da técnica de mensuração glicêmica com enfoque nos fatores que podem comprometer o resultado glicêmico levando em conta o risco de hipoglicemia. Tornou-se evidente que a compreensão apropriada dos fatores que influenciam a glicemia e a mensuração glicêmica é indispensável para o enfermeiro na obtenção de resultados glicêmicos confiáveis, e assim, evitar erros na titulação das doses de insulina administrada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vários trabalhos têm demonstrado uma relação entre sono e memória. Desta forma, tem sido descrito um papel importante do sono na consolidação da memória e um efeito negativo pela privação do mesmo. O hipocampo é uma região importante para a formação e consolidação da memória espacial, e contém uma alta expressão de receptores para corticosteróides. As ações dos corticosteróides no hipocampo são fundamentais para a aquisição de memória e dependem de um balanço adequado entre receptores de Glicocorticóides (RGc) e Mineralocorticóides (RMn). Assim é descrito na literatura que um aumento na expressão de RMn é promotor de aquisição de memória, enquanto que um aumento na expressão de RGc produz um efeito negativo. Apesar dos níveis circulantes de glicocorticóides na privação de sono paradoxal (PSP), não serem responsáveis pelo enfraquecimento de memória, não existem dados sobre a expressão dos receptores para corticosteróides no hipocampo, após PSP. Neste trabalho tivemos como objetivo investigar a expressão de receptores de Glicocorticóides no hipocampo, bem como avaliar aprendizado e memória em ratos privados de sono paradoxal. Ratos Wistar machos (250- 350g) foram submetidos à PSP, utilizando-se o método de múltiplas plataformas por um período de 96 horas. Após 96h de privação os animais foram anestesiados e perfundidos. Secções de 25 μm na área do hipocampo foram obtidas e reagidas com anticorpos para receptores de Glicocortidóides. Avaliamos as áreas CA1, CA3 e Giro Denteado. O aprendizado e memória espacial foram avaliados através do teste do labirinto aquático de oito braços, antes e após o período de privação de sono. Avaliou-se a latência de escape e o número de erros obtidos. O grupo PSP apresentou um aumento na expressão de RGc nas regiões: CA1 e Giro Denteado, não se observando diferença significativa na região CA3. A PSP prévia aos testes de aprendizado e memória não provocou alterações significativas. A privação de sono pós-aprendizado também não produziu diferenças estatisticamente significativas, mas um aumento no tempo de latência de escape e número de erros sugere um enfraquecimento na consolidação da memória. O aumento na expressão de RGc nas áreas estudadas, pode ser consequente a uma alteração no balanço entre os receptores para corticosteróides no hipocampo e ser responsável por alterações no aprendizado e memória em ratos PSP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A alteração no sistema de controles internos da empresa estudada teve como marco principal a mudança do foco no trabalho da auditoria interna, que começou a desempenhar suas atividades de forma estruturada e seguindo uma metodologia específica; além, de perseguir um objetivo estratégico da organização. A auditoria interna, antes do processo de certificação do sistema de controles internos exigido pela seção 404 da SOX, era apenas um instrumento de detecção de erros e compliance fiscal, que baseava seus trabalhos somente em fatos passados, com a constatação de deficiências de controles. Todavia, sem assessorar a alta a administração da empresa na resolução das deficiências, objetivando a implementação das melhorias dos controles internos. Com a necessidade de certificação da eficácia dos controles internos, a partir do ano de 2005, o foco dos trabalhos de auditoria interna foi direcionado para lograr melhorias nos métodos de controle, gestão de riscos, prevenção de fraudes e erros, nos processos operacionais, contábeis e financeiros da organização. O objetivo dessa pesquisa foi, por meio de estudo de caso único, mensurar os principais procedimentos realizados para a implantação do sistema de controles internos da empresa estudada, incluindo a metodologia adotada, o modelo escolhido, o processo de controle estabelecido, a identificação e avaliação dos principais riscos e controles, bem como a forma de seleção, avaliação e teste dos controles internos existentes. Buscou-se coletar dados preconizados pela literatura de autores renomados e analisar as diversas bibliografias, com o objetivo de comparar com a pesquisa que foi realizada nos documentos fornecidos pela empresa analisada. Este estudo levantou pontos importantes sobre o processo de gestão da empresa e da forma como se utilizou da auditoria interna como ferramenta para a melhoria de seus controles internos. Destacam-se a geração de valor empresarial que um bom ambiente de controle interno traz e os motivos que levam uma organização a implementar uma área de auditoria interna, com especial atenção ao foco de assessoramento e consultoria, alinhado as práticas internacionais de auditoria interna. Entretanto, apesar de observar melhorias na atuação da auditoria interna da organização, constata-se a necessidade de alinhamento de algumas práticas internacionais, ainda não implementadas. Descobriu-se, também, que a auditoria interna, com o devido emporwerment da alta administração, e utilizando-se das técnicas atuais e internacionais, aumentam a confiabilidade do sistema de controles internos e com isso geram valor às suas organizações. Nesta pesquisa pôde-se constatar a utilização da auditoria interna como ferramenta de gestão de recursos organizacionais, ocasionando melhorias no sistema de controles internos da empresa, e ficando constatada, por meio de auditoria executada por firma independente, a irrefutável melhoria dos controles internos da organização estudada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho consiste na análise crítica de normatizações e legislações referentes a sujeitos transexuais e travestis, no território brasileiro, contabilizando sessenta e um documentos, compreendidos entre 1997 e março de 2014. Ademais de podermos pensar o dispositivo da transexualidade que aparece como uma tentativa de docilizar corpos não-binários, domesticar sexualidades através da sua nomeação e reconhecimento social, reconhecimento este construído por um diagnóstico de transtorno de identidade de gênero. Que além de patologizar e psiquiatrizar vivências não normativas, destitui o sujeito trans* da autonomia sobre seu corpo, deslegitima sua identidade e o violenta de várias formas, até fixá-lo em padrões merecedores de políticas e direitos. A análise dos documentos apontou como conteúdo dois elementos centrais: uso do nome social e normas técnicas de patologização. Os discursos variam e ao mesmo tempo se assemelham, mostrando incongruências internas e reproduções errôneas (mas podemos falar em originalidade? E serão erros mesmo?). Dessa forma, criam-se alguns Frankensteins que podem ser potências, podem produzir anulações ou zonas de monstruosidade. Seja como abjeto, monstros ou ciborgues, as identidades trans* tencionam constantemente fronteiras e dialogam com o anômalo e as subjetividades nômades ao mesmo tempo em que oscilam entre discursos e figurações normatizadoras

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta resultados da aplicação de filtros adaptativos, utilizando os algoritmos NLMS (Normalized Least Mean Square) e RLS (Recursive Least Square), para a redução de desvios em previsões climáticas. As discrepâncias existentes entre o estado real da atmosfera e o previsto por um modelo numérico tendem a aumentar ao longo do período de integração. O modelo atmosférico Eta é utilizado operacionalmente para previsão numérica no CPTEC/INPE e como outros modelos atmosféricos, apresenta imprecisão nas previsões climáticas. Existem pesquisas que visam introduzir melhorias no modelo atmosférico Eta e outras que avaliam as previsões e identificam os erros do modelo para que seus produtos sejam utilizados de forma adequada. Dessa forma, neste trabalho pretende-se filtrar os dados provenientes do modelo Eta e ajustá-los, de modo a minimizar os erros entre os resultados fornecidos pelo modelo Eta e as reanálises do NCEP. Assim, empregamos técnicas de processamento digital de sinais e imagens com o intuito de reduzir os erros das previsões climáticas do modelo Eta. Os filtros adaptativos nesta dissertação ajustarão as séries ao longo do tempo de previsão. Para treinar os filtros foram utilizadas técnicas de agrupamento de regiões, como por exemplo o algoritmo de clusterização k-means, de modo a selecionar séries climáticas que apresentem comportamentos semelhantes entre si. As variáveis climáticas estudadas são o vento meridional e a altura geopotencial na região coberta pelo modelo de previsão atmosférica Eta com resolução de 40 km, a um nível de pressão de 250 hPa. Por fim, os resultados obtidos mostram que o filtro com 4 coeficientes, adaptado pelo algoritmo RLS em conjunto com o critério de seleção de regiões por meio do algoritmo k-means apresenta o melhor desempenho ao reduzir o erro médio e a dispersão do erro, tanto para a variável vento meridional quanto para a variável altura geopotencial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Espectrometria de Massa em Tandem (MS/MS) é mundialmente considerada padrão ouro para a Triagem Neonatal (TN) de Erros Inatos do Metabolismo (IEM). Além de apresentar melhor sensibilidade e especificidade possibilita rastrear uma vasta gama de IEM usando um único teste. Atualmente o Programa Nacional de Triagem Neonatal (PNTN) rastreia cinco doenças (Fenilcetonúria, Hipotiroidismo Congênito, Fibrose Cística, Hemoglobinopatias e Deficiência da Biotinidase). Uma das metas do PNTN é o aprimoramento e a incorporação de novas doenças e/ou tecnologias. Com a recente recomendação da CONITEC (Comissão Nacional de Incorporação de Tecnologias) para aquisição do MS/MS para diagnóstico de doenças raras, vislumbra-se o incremento desta tecnologia para ampliação de doenças triadas, melhora da qualidade do teste diagnóstico, corroborando para melhorar qualidade de vida das crianças acometidas pelos EIM. Este trabalho teve como objetivo realizar uma análise de custo efetividade, para incorporação da tecnologia de tandem MS/MS na triagem neonatal, sob a perspectiva do SUS. Desta maneira buscou-se comparar diferentes cenários da TN com a tecnologia atualmente utilizada (Fluorimetria) somente para Fenilcetonúria (PKU), e com MS/MS para rastreio da PKU e da Deficiência de Cadeia Média Acyl-Coenzima Desidrogenase (MCAD). Para tanto construiu-se um modelo matemático de decisão baseados em cadeias de Markov que simulou a TN da PKU e da MCAD, bem como a história natural da MCAD. Foi acompanhada uma coorte hipotética de cem mil recém-nascidos. O horizonte temporal adotado foi a expectativa de vida da população brasileira de 78 anos de acordo com IBGE. Utilizou-se uma taxa de desconto de 5% para os custos e consequências clínicas para ambos os cenários propostos. Quando incorporado o MS/MS para triagem da PKU os ganhos em saúde continuaram os mesmos, pois o desempenho do MS/MS e da Fluorimetria foram praticamente iguais (efetividade), porém o custo incremental foi quatro vezes maior para a mesma efetividade, o que torna o MS/MS somente para PKU não custo efetiva (dominada). No entanto, quando analisado o cenário do MS/MS para triagem da PKU e da MCAD o custo incremental do MS/MS no PNTN foi menor por causa da economia feita uma vez que é possível realizar ambos os testes no mesmo o teste do pezinho atual.