1000 resultados para Lisina disponível
Resumo:
Comunicação apresentada na IRMA Information Resources Management Association International Conference, San Diego, CA, 15 19 May
Resumo:
Artigo apresentado no V Congresso deGaliza e Norte de Portugal de Formação para o Trabalho – “Necessidades de Formação e Desenho Curricular por Competências”, Universidade de Compostela, 27-29 Novembro de 2003
Resumo:
OBJETIVO: Analisar o uso do Sistema de Informações Hospitalares do Sistema Único de Saúde (SIH/SUS) no ajuste de risco das taxas de mortalidade hospitalar e avaliar a utilidade do índice de comorbidade de Charlson (ICC) no ajuste de risco de indicadores de desempenho. MÉTODOS: Foram selecionadas 40.299 internações ocorridas no Município do Rio de Janeiro entre dezembro de 1994 e dezembro de 1996. A medida de gravidade foi testada pelo ICC, que atribui pesos a 17 condições clínicas presentes nos diagnósticos secundários, a fim de obter a carga de morbidade do paciente (gravidade) independentemente do diagnóstico principal. Utilizou-se a regressão logística para avaliar o impacto do ICC na estimativa da chance de morrer no hospital. RESULTADOS: Nas internações selecionadas, observou-se que o ICC foi igual ou superior a um em apenas 5,7 % dos casos. Quando se aplicou o ICC combinado à idade, o percentual de casos com pontuação diferente de zero aumentou substancialmente. Os modelos testados apresentaram reduzida sensibilidade. CONCLUSÕES: Apesar de a presença de comorbidade ser importante na predição do risco de morrer, essa variável pouco discriminou a gravidade dos casos na base de dados do SIH/SUS, o que é explicado pela qualidade da informação diagnóstica nessa base de dados, na qual a idade é o preditor mais importante do risco de morrer, afora o diagnóstico principal. Apesar das limitações ainda existentes na qualidade da informação diagnóstica disponível no SIH/SUS, sugere-se o uso do ICC combinado como medida para ajuste do risco de morrer nas taxas calculadas a partir desses dados.
Resumo:
A proliferação de resíduos que contribuem para a contaminação dos solos e águas, bem como as emissões de gases que contribuem para o efeito de estufa, tornou-se, nas últimas décadas, um problema importante a ser resolvido. A adoção de estratégias relacionadas com um desenvolvimento autossustentável motivou o desenvolvimento deste trabalho para uma instituição de ensino secundário, tentando mudar atitudes. As técnicas de tratamento de resíduos apresentam um alto custo e a necessidade de pessoal treinado, tornando-se desvantajosas em relação às técnicas de redução na fonte. Neste contexto, este trabalho tem como proposta a elaboração de um guia a adotar na gestão de resíduos laboratoriais de uma escola secundária. Neste guia identificam-se as atividades laboratoriais mais poluentes através da Estrela de Verdura (EV), propõem-se procedimentos de gestão dos resíduos gerados e sugerem-se atividades pedagógicas mais sustentáveis. Assim após um enquadramento teórico do ensino experimental da química e suas relações com o Ambiente ao longo do século XX, descrevem-se as finalidades e dificuldades da aplicação da Química Verde (QV) nas atividades laboratoriais. Sugere-se um sistema de gestão de resíduos otimizado. Apresenta-se o guia de gestão através da implementação da QV e da microescala, onde se identificam as atividades laboratoriais mais problemáticas em termos de segurança ambiental e propõem-se alternativas que podem vir a mudar a postura do ensino da química. Finalmente, em função das análises realizadas, concluiu-se que se conseguem realizar as atividades laboratoriais de uma forma mais benigna, sem prejuízo dos objetivos didáticos e com elevada rentabilidade económica, graças ao uso sustentado da tecnologia disponível.
Resumo:
Com o surgimento de novos sistemas de telecomunicações sem fios, que necessitam de maiores potências de emissão e largura de banda disponível, surgem os regulamentos que controlam as emissões rádio. Só assim estas tecnologias podem coexistir em bandas próximas, com o máximo desempenho e com a garantia que os níveis de poluição electromagnética não são ultrapassados. Cada vez mais, regulamentos que limitam a potência da transmissão têm em vista questões de saúde pública e por isso devem ser estritamente respeitados. Para se poder controlar as emissões rádio é necessário um dispositivo que consiga analisar o espectro rádio. Um dos instrumentos fundamentais na metrologia de radiofrequência é o analisador de espectros, que tem como principal função apresentar a potência de porções do espectro em função da frequência. Existem vários tipos de analisadores espectrais, que se baseiam em arquitecturas de recepção distintas. O tipo de analisador define a sua complexidade e o tipo de análises que consegue fazer. Com esta dissertação pretende-se mostrar a implementação de um analisador de espectro portátil, de baixo custo, baseado num receptor heteródino e com uma frequência de operação compreendida entre os 2 e os 3 GHz. Este projecto abrange diversas áreas, desde o hardware de recepção rádio, passando pelo microcontrolador que faz a aquisição de dados e comunicação com o computador, acabando na aplicação que foi desenvolvida em Java para permitir ao utilizador uma interface de utilização simples e funcional. Foi também desenvolvida com sucesso uma antena impressa adequada à banda de frequência referida. Embora tenham existidos problemas simples, um na localização do filtro passa-banda e o outro na resposta do filtro intermédio, os objectivos foram alcançados obtendo-se um analisador de espectro portátil, funcional e de baixo custo, conforme pretendido. O analisador tem um erro máximo na detecção de potência de 2,5 dB e o tempo de varrimento máximo é cerca de 16 segundos com 500 pontos de resolução. Foram realizadas várias medições e uma comparação com um analisador de espectros comercial, para demonstrar o funcionamento e desempenho do analisador desenvolvido, tendo os resultados sido bastante promissores. A funcionalidade deste analisador medir a potência do sinal ao longo do tempo é uma mais-valia face ao analisador comercial utilizado para a comparação.
Resumo:
A distribuição de medicamentos é uma função da farmácia hospitalar que, com metodologia e circuitos próprios, torna disponível o medicamento correto, na quantidade e qualidade certas, para cumprimento da prescrição médica proposta, para cada doente e todos os doentes do hospital. Assim, um sistema de distribuição de medicamentos é o método que abrange os procedimentos que ocorrem entre a prescrição e a administração de um medicamento. Um sistema de distribuição de medicamentos deve ser racional, eficiente, económico, organizado, seguro e estar de acordo com o esquema terapêutico prescrito. No final da década 50, os sistemas tradicionais de distribuição de medicamentos necessitavam de ser repensados, visando melhorar a segurança na distribuição e administração de medicamentos. Nos anos 60, farmacêuticos hospitalares apresentaram um novo sistema: a dose unitária, capaz de diminuir a incidência de erros de medicação. Estes sistemas podem dividir-se então em coletivos (sistema de distribuição tradicional e sistema de reposição de stocks nivelados) ou individuais (sistema de distribuição personalizada e sistema de distribuição por dose unitária). Os seus objetivos são reduzir os erros de medicação, racionalizar a distribuição, aumentar o controlo sobre os medicamentos, reduzir os custos com os medicamentos e aumentar a segurança para os doentes. Há, portanto, necessidade de cada hospital manter um sistema de distribuição de medicamentos adequado às suas necessidades. Sendo o erro de medicação qualquer discrepância entre a medicação prescrita e a administrada, a verificação da qualidade de qualquer sistema de distribuição tem como um dos indicadores a incidência dos erros de medicação. A ASHP, nas Guidelines on Preventing Medication Errors in Hospitals, refere que, para minimizar o erro, devem ser projetadas formas seguras de requisitar, dispensar e administrar os medicamentos. Objectivo do estudo: descrever e comparar os diferentes sistemas de distribuição de medicamentos, utilizados em meio hospitalar, notando a sua evolução e utilização ao longo dos tempos, bem como salientar o seu contributo para a segurança do doente (segurança da medicação).
Resumo:
O versão integral do nº1 da revista Polissema está disponível no link da versão do editor
Resumo:
O artigo está disponível em livre acesso no link da versão do editor
Resumo:
O artigo está disponível em texto integral no link da versão do editor
Resumo:
Em muitas situações de interação, os agentes são compelidos a agir estrategicamente. Isto significa que as linhas de ação que um agente escolhe tomar são condicionadas ou determinadas pelo comportamento observado ou esperado de outros. A teoria dos jogos consiste precisamente no estudo de como os intervenientes numa determinada relação de interação estratégica atuam de modo racional, no sentido de promover o melhor resultado possível para si próprios. Ao analisar um jogo é necessário identificar as estratégias disponíveis para cada um dos jogadores, quais os resultados que a escolha de cada estratégia permite alcançar, os momentos de tempo em que as decisões são tomadas e que informação têm disponível os participantes na relação de interação. Apresentar-se-á conceitos centrais como o de estratégia dominante, ou o de equilíbrio de Nash; far-se-á a distinção entre jogos de informação completa e de informação incompleta, e entre jogos em forma normal e em forma extensiva; será ainda feita menção à teoria dos jogos evolucionária.
Resumo:
O presente texto é um contributo para a compreensão dos processos de concepção e execução duma política pública de educação conduzida pelo Governo e enquadra-se no campo mais vasto de uma investigação em curso. É apresentado e problematizado um “modelo” de implementação do conceito de Escola a Tempo Inteiro (ETI), a partir das representações dos princípios que lhe estão subjacentes (decorrentes das retóricas do discurso oficial) confrontando-o com as representações de outros actores que marcam as suas posições e explicitam as suas lógicas de argumentação reportadas a outros referenciais.
Resumo:
INTRODUÇÃO: Existem muitas críticas à qualidade dos dados criminais existentes no Brasil, mas há pouco estudo sistemático para corroborar essas críticas. Nesse sentido, foi feito estudo com o objetivo de comparar o número de homicídios registrados entre dois sistemas públicos de informação. MÉTODOS: Foram analisados os óbitos registrados pelo Sistema de Informações de Mortalidade do Ministério da Saúde (SIM/MS) e pela Polícia Militar (PMMG), de 1979 a 1998. A comparação entre os dois sistemas foi feita pela razão entre os números absolutos, categorizando os municípios em cinco grupos de acordo com o tamanho da população em 1998, e pelas taxas de homicídio. Foram ajustados dois modelos de regressão linear das taxas no tempo, um para cada sistema. RESULTADOS: Nas cidades de menos de 100.00 habitantes, as informações de homicídios da PMMG são mais completas do que as do SIM/MS. Nas cidades de mais de 100.000 habitantes, o SIM/MS é capaz de recuperar mais eficientemente os óbitos, embora possam ser incluídos indevidamente óbitos de homicídios cometidos em outros municípios e óbitos por arma branca e de fogo de intenção indeterminada que não tenham sido devido a homicídio. O sub-registro da PMMG pode ser devido às mortes hospitalares tardias, que não são acompanhadas pela PMMG. CONCLUSÕES: Os sistemas do SIM/MS e PMMG representam limites superiores e inferiores do número real de homicídios ocorridos nas grandes cidades. Sugere-se que, quando disponíveis, as duas fontes sejam analisadas e comparadas; quando apenas uma delas estiver disponível, propõe-se que a análise deva considerar as diferenças.
Resumo:
Esta dissertação tem como objectivo explorar as potencialidades de aplicação do trânsito optimizado de energia (Optimal Power Flow - OPF), no contexto da operação e planeamento de redes de energia eléctrica. Para o efeito, são ilustradas diferentes funções objectivo, nomeadamente, a minimização: dos custos de combustível, da potência activa de perdas, da potência reactiva de perdas, do ajuste de carga, do ajuste da reactância das linhas e da inserção das reactâncias shunt e/ou baterias de condensadores. São ainda propostas duas abordagens, que recorrem ao OPF, para efectuar a resolução do problema da compensação do factor de potência, em redes de distribuição de energia eléctrica. Em cada abordagem, são inseridas baterias de condensadores comutáveis na rede, com o objectivo de conduzir a uma redução dos custos de geração de energia eléctrica. Na primeira abordagem, dimensionam-se as baterias de condensadores para o nível de carga mais elevado, enquanto na segunda abordagem proposta, o valor e localização dos condensadores, tem em conta o conjunto dos níveis de carga considerados para o qual se pretende efectuar o dimensionamento. As duas abordagens apresentam resultados distintos para a potência reactiva das baterias de condensadores adicionadas em cada barramento, bem como para a selecção dos escalões, que devem estar em funcionamento em diferentes níveis de carga. De forma a avaliar a qualidade das soluções efectua-se, uma avaliação técnico-económica para diferentes níveis admissíveis de compensação do factor de potência, tendo em conta cenários de carga considerados na óptica do planeamento. É proposta uma metodologia, com o objectivo de obter a solução do problema em função dos seguintes factores: orçamento disponível, nível de perdas considerado satisfatório, VAL e tan das cargas da rede. As abordagens propostas são aplicadas à rede de distribuição de energia eléctrica de São Vicente. São ainda efectuadas sensibilidades em relação à natureza da carga, mediante a variação da sua tan . Verifica-se que os resultados obtidos são robustos e que a segunda abordagem é mais vantajosa.
Resumo:
Com o volume de informação disponível para análise e tomada de decisões, a capacidade de sumarização da informação, facilitando o processo de análise e tomada de decisões em tempo útil, assume um papel fundamental nos dias correntes. Com o crescimento de sistemas de exploração geográfica dos dados, esta tese propõe e implementa uma solução para a exploração e sintetização da informação geográfica. A exploração geográfica dos dados é efetuada com recurso a mapas temáticos, gráficos e tabelas pivot. Para a exploração geográfica dos dados, são estudadas várias técnicas de geração de mapas temáticos, tecnologias associadas e conceitos de sistemas de informação geográfica. O foco do projeto recai sobre, sumarização de informação estatística georreferenciada, através de mapas coropletos com suporte em mapas dinâmicos na Web. Como prova de conceito, são utilizados os dados disponibilizados pelo Instituto Nacional de Estatística (INE), através de um Web Service. Estes dados, são integrados no sistema possibilitando a representação onde cada um dos indicadores através das ferramentas de sumarização da informação implementadas: Gráficos, Tabelas pivot e Mapas temáticos.
Resumo:
Dissertação realizada no âmbito do Mestrado em Ciências Documentais, Variante Bibliotecas e Centros de Documentação, da Universidade Lusófona de Humanidades e Tecnologias(ULHT). [O documento original encontra-se depositado no Repositório Científico Lusófona]