898 resultados para MÉTODOS DE TRABALHO
Resumo:
A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos
Resumo:
A pesquisa que apresento discutiu as políticas públicas de educação da Secretaria de Estado de Educação do Rio de Janeiro (SEEDUC/RJ) no segundo governo Sérgio Cabral (2011- 2014). Desde os anos 1990 vem ocorrendo uma recomposição do trabalho escolar e, por consequência, do trabalho docente na educação básica brasileira, para atender às novas exigências que vêm sendo apresentadas à educação escolar pública, em particular com relação a seus objetivos, organização e gestão. No período estudado (2011 2014), ganham destaque as políticas de responsabilização dos docentes pelo desempenho aferido da escola inserido numa lógica gerencialista da educação, segundo a qual as escolas são administradas com métodos semelhantes aos das empresas privadas, o que provoca intensificação do trabalho docente e o modifica. Com a baixa remuneração, associada ao arrocho salarial promovido pelas políticas de contenção dos gastos públicos dos anos 1990, os docentes da SEEDUC/RJ acumularam perdas salariais que (não cobertos pelos ganhos na remuneração bruta que ocorre no período de 2011 a 2014), acrescidas à expansão da cobertura da escola pública básica, sem os investimentos necessários para tanto, entre outros fatores, foram tornando o trabalho deste docente crescentemente precarizado. Procurei discutir então, dialogando com as teses de proletarização e desprofissionalização do professorado essa recomposição do trabalho docente que vem ocorrendo de forma particularmente intensa no Rio de Janeiro, com a implantação do Plano de Metas da Educação pela SEEDUC/RJ em janeiro de 2011. O Plano de Metas da Educação traz profundas modificações para a rede, à medida que estabelece metas de produtividade por unidade escolar, relativas ao fluxo escolar e ao desempenho dos alunos em avaliações externas. Existem ganhos na remuneração dos docentes de 2011 a 2014, ao mesmo tempo em que se intensifica o trabalho docente, sobrecarregado e modificado em seu caráter devido ao crescimento de tarefas de execução, mecânicas, não propriamente intelectuais, e à diminuição do espaço das atividades de elaboração, de caráter mais propriamente intelectual. A composição da carga horária, a atuação em diversas redes de ensino, a provisoriedade que afeta o vínculo com a profissão, são tratadas, neste trabalho, como elementos que interferem na formação da concepção político-pedagógica deste profissional. Procurei discutir então de que modo ocorre esta recomposição do trabalho docente, considerando sua relação com as suas condições efetivas de realização e de exercício da autonomia pedagógica deste trabalhador.
Resumo:
O setor de saúde pública convive com uma constante escassez de recursos combinada com uma necessidade crescente de investimentos em tecnologia e inovação. Portanto, é necessário que os gestores públicos de saúde busquem maneiras de maximizar o uso destes recursos orçamentários escassos. Uma das alternativas é implementar estudos sobre custos, que possibilitem ao gestor exercer o controle, o combate ao desperdício e o planejamento dos investimentos futuros. No entanto, na área governamental, existem outros grupos, além do gestor, que têm interesse em conhecer as informações de custos do setor de saúde. Esses grupos são chamados pela teoria da administração de Stakeholders. Cada stakeholder, tais como médicos, pacientes, fornecedores, sociedade entre outros podem demandar informações distintas de custos. Por este motivo, o objetivo deste trabalho é investigar qual o método de custeio que melhor se adequa as necessidades dos diferentes stakeholders de um hospital público. Para tanto, elaborou-se uma pesquisa bibliográfica que abordasse os métodos de custeio por absorção, custeio variável e custeio baseado em atividades, que são os métodos mais debatidos pela literatura contábil. Dessa forma, com objetivo de responder a questão de pesquisa, o presente trabalho desenvolve um cenário hipotético de um hospital universitário público, no qual estão identificados os seus stakeholders e suas respectivas necessidades de informações de custo. Como resultado das análises, observa-se que cada um destes stakeholders apresenta um método de custeio, ou uma combinação de dois destes, que melhor se adequa as suas necessidades de informação de custos.
Resumo:
Este trabalho pretende verificar o alinhamento entre os indicadores de inovação utilizados pelos métodos Scorecard de mensuração dos ativos intangíveis e pelas agências governamentais nacionais e internacionais com aqueles utilizados pelos fundos de capital de risco na cidade do Rio de Janeiro, para investimento em empresas spin-offs acadêmicas incubadas. A metodologia constou de uma revisão bibliográfica sobre os métodos de mensuração e valoração dos ativos intangíveis, indicadores de inovação propostos por agências governamentais nacionais e internacionais e fundos de capital de risco que atuam na cidade do Rio de Janeiro. Além de serem aplicados questionários nas empresas de fundos de capital de risco desta cidade. Foram levantados diversos métodos Scorecards na literatura com seus indicadores, além dos indicadores de inovação de agências governamentais nacionais e internacionais. Adicionando-se a isso, identificou-se o foco de investimento, o processo de seleção, o método utilizado de avaliação de oportunidades de investimento e indicadores relevantes para as empresas de capital de risco da cidade do Rio de Janeiro. Observou-se que os ativos intangíveis, entre eles os de inovação, não são avaliados individualmente. A informação obtida com as empresas que receberão investimentos dessas empresas de capital de risco é utilizada para se entender a origem dos fluxos de caixa projetados e os principais fatores de risco. E esses dados aplicados ao método do fluxo de caixa descontado permitem que se estime o valor da empresa. Pela vasta experiência dos gestores dos fundos de capital de risco com micro e pequenas empresas inovadoras, espera-se que o estudo das práticas deste segmento traga importantes reflexões para as discussões relativas aos ativos intangíveis e a inovação.
Resumo:
Estudo de comparação entre dois métodos de coleta de dados, através da aplicação de um software, para avaliação dos fatores de risco e danos no trabalho de enfermagem em hospital. Objetiva analisar o uso do software (eletrônico) em comparação com o uso do instrumento impresso. Trata-se de um estudo estatístico, descritivo com abordagem quantitativa, desenvolvido nas enfermarias dos Serviços de Internações Clínicas e Serviços de Internações Cirúrgicas de um Hospital Universitário, no estado do Rio de Janeiro. A população do estudo foram os trabalhadores de enfermagem das unidades. A amostra foi definida por meio de amostragem não-probabilística e alocação da amostra ocorreu de forma aleatória em dois grupos, denominados grupo impresso e grupo eletrônico, com 52 participantes cada. Previamente a coleta de dados foram implementadas estratégias de pesquisa denominada teaser, através da comunicação digital aos trabalhadores. Posteriormente, foi ofertado aos participantes do formato impresso o questionário impresso, e os participantes do formato eletrônico receberam um link de acesso a home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 47 trabalhadores do grupo impresso (90,3%), e 17 trabalhadores do grupo eletrônico (32,7%). A aplicação do questionário impresso revelou algumas vantagens como o número de pessoas atingidas pela pesquisa, maior interação pesquisador e participante, taxa de retorno mais alta, e quanto às desvantagens a demanda maior de tempo, erros de transcrição, formulação de banco de dados, possibilidades de resposta em branco e erros de preenchimento. No formato eletrônico as vantagens incluem a facilidade de tabulação e análise dos dados, impossibilidade de não resposta, metodologia limpa e rápida, e como desvantagens, o acesso à internet no período de coleta de dados, saber usar o computador e menor taxa de resposta. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores perceberam a existência dos riscos ocupacionais, principalmente os ergonômicos, biológicos e de acidentes. Os principais danos à saúde provocados ou agravos pelo trabalho percebidos pelos trabalhadores foram os problemas osteomusculares, estresse, transtornos do sono, mudanças de humor e alterações de comportamento e varizes. Pode-se afirmar que não ocorreram diferenças acentuadas de percentual ao comparar a percepção dos trabalhadores do grupo impresso e do grupo eletrônico frente aos riscos e danos à saúde. Conclui-se que os dois processos de coleta de dados tiveram boa aceitação, no entanto, deve ser indicada a aplicação do questionário eletrônico junto com a ferramenta de acesso, no caso o computador, tablet.
Resumo:
Desde a década de 1960, devido à pertinência para a indústria petrolífera, a simulação numérica de reservatórios de petróleo tornou-se uma ferramenta usual e uma intensa área de pesquisa. O principal objetivo da modelagem computacional e do uso de métodos numéricos, para a simulação de reservatórios de petróleo, é o de possibilitar um melhor gerenciamento do campo produtor, de maneira que haja uma maximização na recuperação de hidrocarbonetos. Este trabalho tem como objetivo principal paralelizar, empregando a interface de programação de aplicativo OpenMP (Open Multi-Processing), o método numérico utilizado na resolução do sistema algébrico resultante da discretização da equação que descreve o escoamento monofásico em um reservatório de gás, em termos da variável pressão. O conjunto de equações governantes é formado pela equação da continuidade, por uma expressão para o balanço da quantidade de movimento e por uma equação de estado. A Equação da Difusividade Hidráulica (EDH), para a variável pressão, é obtida a partir deste conjunto de equações fundamentais, sendo então discretizada pela utilização do Método de Diferenças Finitas, com a escolha por uma formulação implícita. Diferentes testes numéricos são realizados a fim de estudar a eficiência computacional das versões paralelizadas dos métodos iterativos de Jacobi, Gauss-Seidel, Sobre-relaxação Sucessiva, Gradientes Conjugados (CG), Gradiente Biconjugado (BiCG) e Gradiente Biconjugado Estabilizado (BiCGStab), visando a uma futura aplicação dos mesmos na simulação de reservatórios de gás. Ressalta-se que a presença de heterogeneidades na rocha reservatório e/ou às não-linearidades presentes na EDH para o escoamento de gás aumentam a necessidade de métodos eficientes do ponto de vista de custo computacional, como é o caso de estratégias usando OpenMP.
Resumo:
A introdução de Trypanosoma vivax na América Latina ocorreu por meio de gado zebu importado do Senegal para Guiana Francesa e Antilhas, e no Brasil, o primeiro registro desse hemoprotozoário foi feito no Estado do Pará (SHAW; LAISON, 1972). Até recentemente, a distribuição de T. vivax estava restrita à região Norte do país. Entretanto, em 1995, Silva et al. (1995) diagnosticaram esse hemoparasito em um rebanho bovino do Pantanal do Estado de Mato Grosso, município de Poconé. Posteriormente, a tripanossomíase por essa espécie de Trypanosoma foi diagnosticada em Mato Grosso do Sul, no Pantanal do município de Miranda e da Nhecolândia (PAIVA et al., 2000; DÁVILA et al., 2003). Neste trabalho, foram avaliadas PCRs anteriormente descritas por Masake et al. (1997) e Geysen et al. (2003) e uma outra que utiliza primers, que tem seqüências complementares ao gene que codifica a proteína de transporte da glicose, desenvolvida no Laboratório de Biologia Molecular da Embrapa Gado de Corte. O objetivo foi identificar a PCR de maior sensibilidade com relação ao exame parasitológico e analisar a eficiência da extração de DNA da camada de leucócitos adsorvidos em papel com a metodologia usual que está baseada no fenol/clorofórmio.
Resumo:
O objetivo deste trabalho foi comparar a quantidade e qualidade do DNA isolado de folhas de S. guianensis pelos métodos de Bonato et al. (2002), de Faleiro et al. (2003) e um método baseado no de Bonato et al. (2002), mas com modificações que resultem um DNA mais puro e em quantidade suficiente para execução de diversas análises moleculares, incluindo amplificação, clonagem e sequenciamento.
Resumo:
O Código Florestal brasileiro, juntamente com a resolução Conama no 303/2002, definiu áreas do território nacional classificadas como de preservação permanente (APP). Essas áreas englobam margens dos cursos e corpos d'água, terrenos com declividade acentuada, bordas de chapadas, topos de morro, entre outras feições. No entanto, a escassez de dados cartográficos em escala adequada e de abrangência nacional dificultam ou até impossibilitam as estimativas do alcance territorial da legislação ambiental brasileira. Um exemplo é a delimitação das APPs nas margens dos rios, que, para identificação correta, requer, além da localização, informações sobre a largura dos cursos d'água na época de cheias, dados raramente disponíveis. Este trabalho utilizou dados provenientes da Agência Nacional de Águas (ANA) para estimar as APPs das margens dos rios pertencentes à bacia do Rio Ji-Paraná, RO, identificados na escala 1:1.000.000, levando-se em consideração as larguras dos cursos d'água. Dados de todas as dez estações fluviométricas presentes na bacia com medidas de cota e perfil transversal da calha foram utilizados para estimar a largura máxima do canal de duas maneiras distintas. A primeira delimitou as sub-bacias definidas pelas estações fluviométricas e considerou que todos os cursos d'água pertencentes à sub-bacia apresentavam a mesma largura observada em seu ponto final. A segunda utilizou a relação empírica obtida entre a área de drenagem e a largura da calha nas nove estações para definir a largura de todos os trechos dos cursos d'água da bacia. Por fim, as APPs nas margens dos rios foram delimitadas seguindo os critérios estabelecidos na resolução Conama no 303/2002. A título de comparação, foram também delimitadas as APPs utilizando larguras constantes de 100 m, 200 m e 500 m de faixa marginal para toda a bacia. Entre os diferentes métodos utilizados, a APP nas margens dos rios variou de 1.541 km2 a 15.876 km2 (2,04% a 21,04% da área da bacia, respectivamente). A grande variação na delimitação das áreas marginais deixa claro que estimativas efetuadas para grandes regiões estarão sempre sujeitas a incertezas, de acordo com os métodos utilizados, e que, portanto, é imprescindível o detalhamento dos procedimentos efetuados para esclarecer as vantagens e limitações a que tais estimativas estão sujeitas.
Resumo:
Vários estudos têm fornecido respostas positivas com relação à produtividade do fitoplâncton e à produção de peixes, após a aplicação de calcário nos viveiros com problemas de acidez dos sedimentos do fundo. A calagem dos sedimentos do fundo dos viveiros de aqüicultura tem o objetivo de neutralizar a acidez da camada superficial desses sedimentos, e aumentar a concentração da alcalinidade total e da dureza total da água (THOMASTON & ZELLER, 1961). Em geral, a calagem é feita logo após a despesca (quando os viveiros são drenados, possibilitando a secagem do fundo para aplicação do calcário), e antes do próximo ciclo de cultivo (BOYD & TUCKER, 1998). Freqüentemente, o calcário é misturado com os sedimentos do fundo dos viveiros com um arado. Outro método de calagem é a aplicação de calcário diretamente sobre a superfície da água com o auxílio de um barco, como é feito no sul dos EUA, para a produção de "catfish" (Ictalurus punctaturs) situação em que os viveiros não são drenados por vários anos (BOYD, 1982). Entretanto, não só no Brasil, como nos EUA não existem estudos comparativos sobre a efetividade dos diferentes métodos de calagem em uso pelos aqüicultores, apesar do uso generalizado dessa técnica. Com o objetivo de atender a essa demanda, este trabalho foi desenvolvido em uma piscicultura comercial localizada em Itupeva, SP, para comparar os três métodos de aplicação de calcário agrícola nos viveiros de produção de alevinos de tilápia do Nilo.
Resumo:
Este trabalho tem como objetivo avaliar quatro métodos de enxertia e três porta-enxertos para a gravioleira nas condições edafoclimáticas de Rio Branco, AC.
Resumo:
No Estado do Acre, o cultivo do cupuaçuzeiro encontra-se em fase de desenvolvimento, apresentando aumento na área de produção. O sucesso de cultivos pioneiros consorciados com outras fruteiras, aliado ao elevado preço do fruto e a possibilidade de industrialização e exportação dos subprodutos, vem despertando interesse de agricultores e empresários na formação de novos pomares. Este trabalho tem como objetivo avaliar cinco métodos de nexertia para o cupuaçuzeiro nas condições edafoclimáticas de Rio Branco, AC.
Resumo:
Dissertação de Mestrado apresentada à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Psicologia.
Resumo:
Projeto de Pós-Graduação/Dissertação apresentado à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Medicina Dentária
Resumo:
O objectivo principal da presente tese consiste no desenvolvimento de estimadores robustos do variograma com boas propriedades de eficiência. O variograma é um instrumento fundamental em Geoestatística, pois modela a estrutura de dependência do processo em estudo e influencia decisivamente a predição de novas observações. Os métodos tradicionais de estimação do variograma não são robustos, ou seja, são sensíveis a pequenos desvios das hipóteses do modelo. Essa questão é importante, pois as propriedades que motivam a aplicação de tais métodos, podem não ser válidas nas vizinhanças do modelo assumido. O presente trabalho começa por conter uma revisão dos principais conceitos em Geoestatística e da estimação tradicional do variograma. De seguida, resumem-se algumas noções fundamentais sobre robustez estatística. No seguimento, apresenta-se um novo método de estimação do variograma que se designou por estimador de múltiplos variogramas. O método consiste em quatro etapas, nas quais prevalecem, alternadamente, os critérios de robustez ou de eficiência. A partir da amostra inicial, são calculadas, de forma robusta, algumas estimativas pontuais do variograma; com base nessas estimativas pontuais, são estimados os parâmetros do modelo pelo método dos mínimos quadrados; as duas fases anteriores são repetidas, criando um conjunto de múltiplas estimativas da função variograma; por fim, a estimativa final do variograma é definida pela mediana das estimativas obtidas anteriormente. Assim, é possível obter um estimador que tem boas propriedades de robustez e boa eficiência em processos Gaussianos. A investigação desenvolvida revelou que, quando se usam estimativas discretas na primeira fase da estimação do variograma, existem situações onde a identificabilidade dos parâmetros não está assegurada. Para os modelos de variograma mais comuns, foi possível estabelecer condições, pouco restritivas, que garantem a unicidade de solução na estimação do variograma. A estimação do variograma supõe sempre a estacionaridade da média do processo. Como é importante que existam procedimentos objectivos para avaliar tal condição, neste trabalho sugere-se um teste para validar essa hipótese. A estatística do teste é um estimador-MM, cuja distribuição é desconhecida nas condições de dependência assumidas. Tendo em vista a sua aproximação, apresenta-se uma versão do método bootstrap adequada ao estudo de observações dependentes de processos espaciais. Finalmente, o estimador de múltiplos variogramas é avaliado em termos da sua aplicação prática. O trabalho contém um estudo de simulação que confirma as propriedades estabelecidas. Em todos os casos analisados, o estimador de múltiplos variogramas produziu melhores resultados do que as alternativas usuais, tanto para a distribuição assumida, como para distribuições contaminadas.