983 resultados para Ventilação de alta freqüência
Resumo:
O presente trabalho discute o tema dos dirigentes públicos, atores recentemente debatidos pela literatura como um grupo específico que atua orientado a resultados e à criação de valor público. Em geral, são escassos os estudos que discutem os dirigentes públicos empiricamente; assim, mostraremos os papéis que desempenham argumentando que são atores fundamentais para a formulação e implementação das políticas públicas na medida em que são capazes de dialogar tanto com a esfera política como com a da gestão. Para isso, analisaremos o caso Chileno, experiência bastante consolidada que reconhece o dirigente público como ator distinto dos demais, regido por regras específicas de recrutamento, seleção, nomeação e gestão segundo acordos de resultados. Apresentaremos uma análise dos dirigentes chilenos baseada em uma perspectiva histórica tanto sobre o surgimento e consolidação do Sistema de Alta Direção Pública como em relação às tensões e complementaridades entre tecnocratas e políticos que marcaram os governos chilenos no período que compreende desde a redemocratização até os dias atuais. Mostraremos que este Sistema nasce no contexto de um acordo político entre governo e oposição em busca da modernização e profissionalização do Estado e que as dimensões da política e da gestão são pilares centrais do modelo, presentes em todas as suas esferas, tais como seu desenho institucional e regras de gestão de pessoas e do desempenho.
Resumo:
Este trabalho visa a disponibilização de um ambiente de alto desempenho, do tipo cluster de computadores, com alta exatidão, obtida através da utilização da biblioteca C–XSC. A alta exatidão na solução de um problema é obtida através da realização de cálculos intermediários sem arredondamentos como se fossem em precisão infinita. Ao final do cálculo, o resultado deve ser representado na máquina. O resultado exato real e o resultado representado diferem apenas por um único arredondamento. Esses cálculos em alta exatidão devem estar disponíveis para algumas operações aritméticas básicas, em especial as que possibilitam a realização de somatório e de produto escalar. Com isso, deseja-se utilizar o alto desempenho através de um ambiente de cluster onde se tem vários nodos executando tarefas ou cálculos. A comunicação será realizada por troca de mensagens usando a biblioteca de comunicação MPI. Para se obter a alta exatidão neste tipo de ambiente, extensões ou adaptações nos programas paralelos tiveram que ser disponibilizadas para garantir que a qualidade do resultado final realizado em um cluster, onde vários nodos colaboram para o resultado final do cálculo, mantivesse a mesma qualidade do resultado que é obtido em uma única máquina (ou nodo) de um ambiente de alta exatidão. Para validar o ambiente proposto foram realizados testes básicos abordando o cálculo do produto escalar, a multiplicação entre matrizes, a implementação de solvers intervalares para matrizes densas e bandas e a implementação de alguns métodos numéricos para a resolução de sistemas de equações lineares com a característica da alta exatidão. Destes testes foram realizadas análises e comparações a respeito do desempenho e da exatidão obtidos com e sem o uso da biblioteca C–XSC, tanto em programas seqüenciais como em programas paralelos. Com a conseqüente implementação dessas rotinas e métodos será aberto um vasto campo de pesquisa no que se refere ao estudo de aplicações reais de grande porte que necessitem durante a sua resolução (ou em parte dela) da realização de operações aritméticas com uma exatidão melhor do que a obtida usualmente pelas ferramentas computacionais tradicionais.
Resumo:
A radioproteção dos pacientes submetidos a exames radiográficos está diretamente ligada à qualidade e à repetição das radiografias realizadas. Esta dissertação é apresentada sob a forma de três artigos. O artigo I avaliou a qualidade de 300 radiografias panorâmicas enviadas a clínicas de ortodontia. As radiografias foram classificadas como excelentes (não se observam erros), aceitáveis para diagnóstico (observam-se erros, contudo os mesmos não impedem o diagnóstico) e inaceitáveis (imagem sem valor diagnóstico). Um total de 16,33% das radiografias foi considerado excelente, 78,66% aceitáveis para o diagnóstico e 5% inaceitáveis. Encontrou-se uma média de 1.54 erros por radiografia, sendo os mais freqüentemente encontrados a falta de contato da língua com o palato (21%), aparecimento de imagens fantasma (19,66%), mento inclinado para cima (15,66%), paciente à frente do plano de foco (13,33%), cabeça girada (13,33%), imagens com alta densidade (10,33%) e com baixa densidade (8,66%). Concluiu-se que os padrões de qualidade da amostra estão de acordo com o preconizado em Guidelines on Radiology Standards for Primary Dental Care, segundo os quais se admite até 10% de imagens inaceitáveis. Contudo, cabe salientar que não se conhece o índice de repetições nas clínicas onde as radiografias da amostra foram obtidas e, tendo passado por um controle de qualidade prévio, todas as imagens deveriam ser classificadas como excelentes ou aceitáveis. O artigo II avaliou a freqüência dos erros que levaram à repetição de radiografias panorâmicas realizadas no Serviço de Radiologia da FO-UFRS. O livro de registros do Serviço mostrou um total de 3815 radiografias panorâmicas realizadas no período de junho de 2002 a junho de 2005. No mesmo período o Serviço apresentou 330 radiografias panorâmicas repetidas, resultando em índice de repetição de 8,65% dos exames. Os erros mais freqüentemente encontrados foram: paciente posicionado à frente do plano de foco (25,15%); cabeça girada para direita ou esquerda (24,84%); cabeça inclinada para frente (21,21%); paciente posicionado atrás do plano de foco (20,30%); imagem com a alta densidade (19,69%); imagem com baixa densidade (17,27%); imagem com baixo contraste (16,96%); imagem com alto contraste (12,72%); cabeça inclinada para direita ou esquerda (12,42%); corte do côndilo na radiografia (11,21); corte do mento na radiografia (8,48%); ausência de contato da língua com o palato (7,27%); paciente se moveu durante a exposição (4,94%); cabeça inclinada para trás (2,72%) e aparecimento de imagem fantasma (2,12%). Encontrou-se uma média de 2,07 erros por radiografia. Conclui-se que os erros mais freqüentemente cometidos foram classificados como erros de posicionamento do paciente e que o Serviço de Radiologia da FO-UFRGS apresenta um índice de repetição de radiografias panorâmicas satisfatório, estando de acordo com os padrões de qualidade estabelecidos pelo Guidelines on Radiology Standards for Primary Dental Care. O artigo III teve por objetivo verificar o efeito da radiação emitida em radiografias panorâmicas sobre as células da borda lateral direita da língua, através da avaliação das alterações nucleares, antes e depois da exposição aos raios X. A amostra foi constituída de 42 indivíduos adultos jovens do gênero masculino, sendo 22 deles pertencentes ao grupo que realizou uma radiografia panorâmica (grupo I) e os outros 20 pacientes pertencentes ao grupo II, que realizou duas radiografias panorâmicas. O exame citopatológico das células esfoliadas da mucosa da língua foi realizado antes da incidência radiográfica e 10 dias após. As células foram obtidas através da raspagem e as lâminas foram coradas pela técnica de Feulgen. Para observação das alterações citopatológicas foram analisadas 2.000 células em cada lâmina e quantificados os micronúcleos, buds, broken eggs, cariorrexes e células binucleadas. As lâminas foram analisadas por um único observador. Constatou-se que existe diferença significativa (p=0,01) para as variáveis broken egg, bud, cariorrexe e célula binucleada antes e depois da exposição à radiação ionizante. Na comparação entre os grupos, verificou-se que as variáveis cariorrexe e célula binucleada apresentaram diferença significativa (p=0,01), ambas com valores superiores para o grupo II.
Resumo:
Resumo não disponível
Resumo:
Introdução A pneumonia hospitalar é a principal causa de morte dentre as infecções hospitalares. A prevalência de pneumonia hospitalar em Unidades de Tratamento Intensivo (UTI) varia de 10 a 65%, com taxas de mortalidade que podem variar de 24 a 76%. A pneumonia associada à ventilação mecânica (PAV) é um determinante de mortalidade independente em pacientes submetidos à ventilação mecânica. A adequação do tratamento empírico precoce parece ser fundamental no prognóstico. Os critérios atualmente estabelecidos para avaliar adequação do tratamento empírico utilizam parâmetros clínicos, escores de gravidade e, principalmente, a sensibilidade do germe causador da infecção aos antibióticos administrados. Estes resultados balizam a necessidade de possíveis modificações no esquema antimicrobiano. A possibilidade de utilizar a Procalcitonina (PCT), a Proteína-C Reativa (CRP) e o escore SOFA (Avaliação de Falência de Órgãos Relacionada a Sepse), como indicadores de resposta do paciente, comparando seu status no dia do início do tratamento antimicrobiano (D0) com a evolução destes indicadores no quarto dia de tratamento (D4) abre a possibilidade de comparar o paciente com ele próprio, independente da exuberância da expressão da resposta inflamatória que ele possa desenvolver. Os resultados desta cinética entre D0 e D4 podem ser preditivos de gravidade de infecção, de eficiência antimicrobiana, e possivelmente de sobrevivência ou mortalidade hospitalar nos pacientes com suspeita de PAV. Objetivos Determinar e comparar o valor prognóstico de sobrevivência da cinética da PCT, da CRP, dos escores clínicos CPIS (Escore Clínico de Infecção Pulmonar) e SOFA, e do APACHE II (Avaliação da Fisiologia Aguda e da Saúde Crônica) na PAV entre o diagnóstico e o quarto dia de tratamento, quando a adequação do tratamento é avaliada. Pacientes e Métodos Realizamos um estudo de coorte prospectivo observacional que avaliou 75 pacientes internados no Centro de Tratamento Intensivo clínico-cirúrgico de adultos do Hospital de Clínicas de Porto Alegre que desenvolveram PAV no período de outubro de 2003 a agosto de 2005. Os pacientes com suspeita clínica de PAV que se adequaram aos critérios de inclusão e exclusão do estudo foram os candidatos a participar. Os familiares ou representantes dos pacientes receberam esclarecimentos por escrito acerca dos exames a serem realizados, bem como dos objetivos gerais da pesquisa. Os que aceitaram participar do estudo assinaram o termo de Consentimento Informado. O projeto foi aprovado pelo Comitê de Ética em Pesquisa do Hospital de Clínicas de Porto Alegre. No dia do diagnóstico de PAV foram coletados aspirado traqueal quantitativo, hemoculturas e sangue para a realização de dosagens de PCT, CRP, hemograma, plaquetas, creatinina, bilirrubinas, gasometria arterial e radiografia de tórax, com o objetivo de calcular o CPIS e o escore SOFA. No terceiro dia de tratamento foram novamente coletados aspirados traqueais quantitativos e os demais exames para o cálculo do CPIS. No quarto dia foi coletado sangue para dosagens de PCT, CRP e para os demais exames necessários para o cálculo do SOFA. Os pacientes foram acompanhados por 28 dias após o diagnóstico de PAV, quando foram considerados sobreviventes. Todos os pacientes que morreram antes do vigésimo oitavo dia foram considerados não-sobreviventes. Resultados Os níveis de PCT foram mais baixos nos sobreviventes em D0 (p=0.003) e em D4 (p=0.001). Os níveis de CRP não foram diferentes em sobreviventes e nãosobreviventes em D0 (p=0.77) e em D4 (p=0.14). O CPIS não pode diferenciar sobreviventes de não-sobrevientes em D0 (p=0.32) e em D3 (p=0.45). ΔCPIS decrescente não foi correlacionado a sobrevivência (p=0.59), o mesmo ocorrendo com CPIS <6 em D3 (p=0.79). Pacientes que morreram antes de D4 não puderam ter sua cinética calculada e foram considerados casos perdidos. Variáveis incluídas no modelo de regressão logística univariável para sobrevivência foram idade, APACHE II, ΔSOFA decrescente, ΔPCT decrescente e ΔCRP decrescente. Sobrevivência foi diretamente correlacionada a ΔPCT decrescente com RC = 5.67 (1.78;18.03) p = 0.003, ΔCRP com RC = 3.78 (1.24;11.50) p = 0.02, ΔSOFA decrescente com RC = 3.08 (1.02;9.26) p = 0.05 e escore APACHE II com RC = 0.92 (0.86;0.99) p = 0.02. O modelo de regressão logística multivariável para sobrevivência incluiu todas as variáveis participantes da análise univariável. Somente ΔPCT decrescente com RC = 4.43 (1.08;18.18) p = 0.04 e ΔCRP com RC = 7.40 (1.58;34.73) p = 0.01 permaneceram significativos. A avaliação da cinética dos marcadores inflamatórios e a associação com sobrevida no estudo mostraram que: - Em 95,1% dos sobreviventes houve queda dos níveis de PCT ou de CRP. - Em 61% dos sobreviventes ambos os níveis de PCT e de CRP caíram. Apenas 4,9% dos sobreviventes tiveram níveis de PCT e CRP crescentes. Com relação aos não-sobreviventes, 78.9% tiveram pelo menos um dos dois marcadores ou ambos com níveis crescentes. Conclusão As cinéticas da PCT e da CRP, obtidas pelas dosagens de seus níveis no dia do diagnóstico e no 4º dia de tratamento, podem predizer sobrevivência em pacientes com PAV. A queda dos níveis de pelo menos um destes marcadores ou de ambos indica maior chance de sobrevivência.
Resumo:
O projeto do trem de alta velocidade que fará o transporte de passageiros entre as duas maiores metrópoles do país é um dos principais investimentos do Plano de Aceleração do Crescimento (PAC). Depois do insucesso apresentado no primeiro processo de licitação, devido à falta de proposta de investidores privados, o Governo Federal decidiu alterar a sua participação no plano de investimentos, adicionalmente, nesta segunda tentativa, prevista para ocorrer em setembro de 2013, o Governo informou que reduzirá o valor mínimo da outorga a ser pago pelo concessionário vencedor em 3,2%, o que aumentará o investimento do Estado em cerca de R$ 900 milhões. O setor público busca através das medidas destacadas, aumentar a atratividade do projeto e divulgou que poderá aumentar a sua participação acionária no projeto, de 45% das cotas da SPE que controlará o TAV para cerca de 80%. O presente estudo discute a concessão de uma garantia de demanda mínima de passageiros, os resultados obtidos através da metodologia de opções reais indicam que elas podem gerar um aumento do VPL de 22,2% e um custo para os cofres públicos de apenas 2,86% do total investido no projeto.
Resumo:
Apresenta o histórico da radioterapia desde o surgimento dos raios-X até os dias atuais, no contexto das ações e controle de combate ao câncer. Estuda a atual situação dos serviços de radioterapia do pais, com destaque para os municipios de São Paulo e Rio de Janeiro, sob a ótica da Economia da Saúde. A análise foi centrada nos recursos materiais, recursos humanos, recursos financeiros e qualidade assegurada em radioterapia, comparados a paises desenvolvidos e em desenvolvimento.
Resumo:
Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.
Resumo:
Sistemas computacionais de tempo-real são tipicamente construídos a partir de primitivas de sincronização que fornecem uma noção do tempo no objetivo de coordenar a execução múltiplos fluxos de instruções em um processador. Quando o processamento é centralizado, a base de tempo destas primitivas é extraída do oscilador local da plataforma, permitindo que as ações do sistema sejam devidamente ordenadas, respeitando restrições de tempo e causalidade. No entanto, em sistemas distribuídos o problema não pode ser resolvido desta forma em decorrência de imperfeições nos dispositivos físicos. Diferenças mínimas na freqüência de osciladores fazem com que as bases de tempo dos componentes divirjam cada vez mais ao longo do tempo, dificultando ou até mesmo impossibilitando um ordenamento consistente de eventos. Por esta razão, sincronização de relógios é um serviço de fundamental importância, sobretudo em aplicações críticas, onde os níveis de confiabilidade exigidos são mais elevados. O presente trabalho consiste na proposta e implementação de uma plataforma de comunicação otimizada para sistemas de controle distribuídos, caracterizados por uma alta regularidade no comportamento da comunicação. O objetivo é propor uma solução em baixo nível com suporte para o projeto de sistemas distribuídos no domínio de aplicações críticas. A plataforma proposta, à qual foi atribuído o nome CASCA, sigla para “Communication Architecture for Safety- Critical Applications”, é de fato uma extensão time-triggered do protocolo CAN. Acima da camada de enlace do protocolo original foram projetados mecanismos sincronização de relógios e criação inicial da base de tempo, implementados na forma de uma combinação de hardware e software. Principais características da plataforma são jitter mínimo, uma base de tempo global essencialmente distribuída e particionamento temporal. Diferentes alternativas de projeto foram consideradas, observando com maior atenção a viabilidade de prototipação em dispositivos FPGA para fins de validação e aplicação imediata em plataformas reconfiguráveis. Como forma de validação da plataforma, um sistema elementar formado por três nodos foi sintetizado com sucesso em bancada obtendo-se como resultado uma base de tempo essencialmente distribuída com precisão menor do que um micro-segundo.
Resumo:
O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.
Resumo:
Em plantas de polimerização, uma das principais propriedades relacionadas à qualidade do produto é o índice de fluidez, ou MI. Esta propriedade é geralmente medida em laboratório, em intervalos de algumas horas. Por outro lado, as variáveis de processo estão disponíveis continuamente e são controladas com o objetivo de atingir as propriedades desejadas do produto. O desenvolvimento de um analisador virtual, que permita a estimação do MI de forma contínua, com base nestas variáveis medidas, pode levar a um melhor controle da qualidade do produto final. Este trabalho desenvolve um analisador virtual de MI para uma planta de polietileno de alta densidade (PEAD). Existem vários tipos de modelos que podem ser utilizados na implementação de um analisador virtual, assim como várias formas de correção on-line das suas estimativas. Este trabalho direciona especial atenção aos modelos semi-empíricos, e ao uso de um filtro de Kalman estendido (EKF) na correção das estimativas e dos parâmetros do modelo. O objeto de estudo desse trabalho foi um conjunto de produtos, cuja produção é realizada em dois reatores em série. Foram usados 21 conjuntos de dados representando diferentes períodos de operação da planta. Estes conjuntos de dados continham as principais variáveis de planta e os resultados de MI medidos em laboratório. A partir destes dados, foram estimados os parâmetros do modelo para cada reator. Também foi proposta e testada uma metodologia para a sintonia dos parâmetros do EKF. De posse dos modelos, do filtro e de seus respectivos parâmetros, foram gerados os resultados do analisador.
Resumo:
Resumo não disponível
Resumo:
A tomada de decisão estratégica é um tema utilizado ao longo dos anos para auxiliar homens e mulheres, principalmente nas organizações, a pensarem de forma estruturada sobre como decidir e quais raciocínios adotarem nestes momentos. Com o ingresso da mulher no mercado de trabalho, a teoria de tomada de decisão se expandiu para analisar não apenas os processos de tomada de decisão em si, mas também comportamentos utilizados por homens e mulheres nestes momentos. O objetivo principal deste estudo foi investigar o que as teorias de tomada de decisão por gênero mencionam e verificar se estas teorias se relacionam com a realidade de homens e mulheres que se encontram em posições de gerência e diretoria e, com base nisto, confrontar se estas teorias se confirmam quando homens e mulheres se encontram em posições de alta gestão. Além disto, buscou-se investigar também se a teoria sobre empowerment possui alguma relação com as teorias de tomada de tomada de decisão por gênero, bem como se o nível de empowerment entregue para gerentes e diretores nas organizações influencia as características de tomada de decisão utilizadas por estes homens e mulheres. Para tanto, foi realizada uma pesquisa semiestruturada com vinte e quatro profissionais em posições de gerência e diretoria, de empresas localizadas no Estado do Rio de Janeiro. Como resultado, a pesquisa concluiu que a maneira como homens e mulheres tomam decisões estratégicas nas organizações não têm relação direta com as teorias de tomada de decisão por gênero quando estes se encontram em posições de gerência e diretoria, todavia, a maneira como homens e mulheres de alta gestão decidem possui uma relação íntima com o nível de empowerment que os mesmos possuem dentro das empresas que atuam.
Resumo:
This work refers to one of the greatest infrastructure projects planned by the Federal Public Administration entitled Trem de Alta Velocidade RJ-Campinas (TAV Brasil) [High Speed Rail Rio de Janeiro – Campinas], also know as bullet train. The intent of this research is not to explore the technical issues of the project bu the description of some details contributes for a better understanting of the evolved technology. The focus of this work is found under the actions promoted by diverse political actors in such enterprise as well as the context which made the public grant not possible along the two mandates of President Lula and the first one of President Dilma Rousseff. This contemporary matter required a huge documentary investigation performed by available material on the internet, news report of the most important press vehicles in the country, essays and articles published by experts. Some people involved in this policy process were interviewed. These inputs enriched the data explaining the conceived actions and structure of the project by the federal government. The results and final considerations target the complexity of the project and the TAV auctions failure from 2010 to 2014, suggesting further researches concerning the retaking of the bullet train project.