156 resultados para validação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O computador atualmente está presente no dia a dia das pessoas e no trabalho. É praticamente impossível conceber a vida moderna sem a interface com computadores. Cuidados devem ser observados quando se está diante de um terminal de microcomputador, evitando uma série de doenças decorrentes de seu mau uso. O objetivo deste estudo é definir parâmetros ergonômicos para a indicação de uma mesa de trabalho informatizado para os taquígrafos do Tribunal de Justiça do Rio Grande do Sul, que dentre uma das tarefas realizadas na função de taquígrafo é a de entrada de dados. O estudo foi baseado no método de Guimarães et al (2001) para avaliação de assentos, para tanto, realizou-se um experimento comparativo de mesas de trabalho informatizado durante o trabalho. Inicialmente os taquígrafos responderam um questionário relativo à demanda das mesas de trabalho, logo após, verbalizaram sobre a percepção de alguns critérios de importantes em uma mesa de trabalho e com a mesa definida verificou-se a ordem de preferência das mesas, antes do experimento. Posteriormente um grupo de voluntários testou a mesa proposta, comparando-a a mesa existente, para tanto foram preenchidos um conjunto de questionários nos quais mediu-se a satisfação com relação aos critérios estabelecidos, a importância atribuída a cada um destes critérios e a ocorrência de desconforto/dor. Os resultados submetidos à validação estatística. A análise dos resultados demonstrou a preferência dos taquígrafos pela mesa proposta, devido ao espaço por ela oferecido, a existência de apoio para braços e regulagem na altura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recentes pesquisas têm apontado o Alinhamento Estratégico (AE) como uma das principais preocupações dos executivos. Extrair informações úteis a partir dos investimentos realizados em Tecnologia da Informação (TI) está entre os principais objetivos dos chefes executivos das organizações (CEO). A presente pesquisa tenta identificar os critérios de AE, juntamente com as suas práticas, que são mais promovidos em organizações da Região Sul do Brasil. Esta pesquisa pode ser classificada como um estudo quantitativo-descritivo, e utiliza o método estatístico para a obtenção, processamento e validação dos dados. O método empregado foi o de um levantamento de informações (survey), e a coleta de dados obedeceu à concepção dos estudos transversais. Como instrumentos de coleta, foram utilizados questionários auto-aplicáveis, preenchidos por chefes de informática (CIO) das empresas e por executivos de médio e alto escalões de outras áreas, tais como compras, vendas, controladoria, financeira, recursos humanos, etc. Responderam os questionários 259 executivos de 72 empresas industriais pertencentes à região sul do Brasil. A partir do procedimento de refinamento do questionário, que foi baseado nos modelos de Luftman (2000) e de Brodbeck e Hoppen (2003), foi elaborado um instrumento formado por seis critérios e por trinta práticas, postulado como adequado ao contexto brasileiro. Quanto à promoção destes critérios, o de Comunicação foi considerado o mais importante e promovido, enquanto que o critério de Medidas de Valor e Competência foi considerado o de menor promoção. A partir da realização de análise de regressão, foi possível determinar que o critério Comunicação é mais impactado pelo critério de Escopo e Arquitetura. Através da realização de análises de variância, foi possível observar que as empresas de grande porte promoveram mais os critérios de de Habilidades, Governança, Medidas de Valor e Competência e Escopo e Arquitetura, quando comparados com os resultados obtidos em empresas de pequeno porte. Como contribuições práticas, foram obtidas listagens das práticas mais importantes, mais promovidas, de implementação mais fácil e mais difícil. Estas listagens podem auxiliar gestores de empresas na promoção de níveis mais elevados de maturidade de AE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desenvolveu-se uma metodologia que dispensa a dissolução completa da amostra para determinar Hg em solos, sedimentos fluvial e marinho. O Hg é quantitativamente extraído do sedimento marinho usando-se HNO3 30% (v/v), ultra-som (120 s, 70 W) e granulometria ≤ 120 µm. Condições similares são eficientes para sedimento fluvial e solo, exceto o tempo de sonicação (180 s) e a adição de KCl 0,15% (m/v). As suspensões sonicadas são centrifugadas e o Hg é determinado no sobrenadante por FI-CV AAS. A validação da metodologia foi feita com CRMs: PACS-2, MESS-3 (NRCC); Buffalo River (NIST 8704), Montana Soil (NIST 2710) e RS-3 (não certificada). Os parâmetros de mérito do método são: massa característica de 25 pg; LD (3s) de 0,2 µg l–1; LQ (10s) de 0,012 µg g–1 (800 µl de solução obtida de 1 g de amostra em 20 ml de suspensão). Aplicou-se a metodologia à análise de amostras reais (solo, sedimentos fluvial e marinho), as quais também foram preparadas com digestão ácida (85 °C durante 3 h) em mistura oxidante (K2S2O8 1 a 2% (m/v) e HNO3 30% (v/v)). Concentrações concordantes foram obtidas. Utilizou-se calibração externa e, quando necessário, ajuste de matriz com KCl ou K2S2O8. Para investigar a extração de Hg orgânico utilizando ultra-som, adicionou-se MeHg aos CRMs. Aproximadamente 5% do MeHg adicionado transformam-se em Hg2+ pelo método proposto, enquanto que chega a 100% quando a amostra é digerida. Assim, propõe-se uma especiação química semiquantitativa entre Hg inorgânico e orgânico, pois o Hg orgânico pode ser obtido pela diferença entre Hg total (determinado pela digestão) e Hg inorgânico (determinado pelo método proposto).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As organizações têm investido recursos significativos no desenvolvimento de cursos baseados em ambientes virtuais de aprendizagem na Internet. Esta modalidade de educação a distância apresenta vantagens significativas, derivadas principalmente da grande flexibilidade de tempo, local e recursos que a caracteriza. É preciso considerar, entretanto, que a esperança de uma utilização ampla dos cursos na Internet depende de diversos fatores que influenciam a efetividade destes cursos, como o modelo de aprendizagem, a tecnologia, o conteúdo, os professores e o nível de interação. Mas a preocupação desta pesquisa está no comportamento do estudante e no seu impacto. Mais particularmente, ela tem por objetivo identificar a influência das diferenças individuais dos estudantes em relação às preferências por contato social e à auto-regulação dos recursos da aprendizagem na efetividade dos cursos desenvolvidos em ambientes virtuais de aprendizagem na Internet. Para isso, realizou-se um estudo de caso no Curso de Capacitação de Técnicos dos Núcleos de Tecnologia Educacional (NTE) das escolas da Região Sul do Brasil. Foram utilizadas seis fontes de coleta de dados: levantamento estruturado (Pesquisa Survey), observação direta, análise de registros e documentos, entrevistas abertas e entrevistas semi-estruturadas. A Pesquisa Survey foi, contudo, o meio de coleta de dados mais relevante. Para realizá-la, adaptou-se e validou-se ao contexto da pesquisa algumas escalas ligadas à auto-regulação dos recursos de aprendizagem (gestão do tempo, do ambiente, do esforço, do ambiente social e prorrogação da gratificação acadêmica) e às preferências por contato social (motivação ao contato social e preferência por solitude). No processo de validação, realizou-se um estudo piloto aplicando o questionário preliminar em 292 estudantes de graduação de universidades de Porto Alegre (em cursos presenciais). Na coleta definitiva dos dados no Curso de Capacitação de Técnicos do NTE, foram realizadas 28 entrevistas semi-estruturadas e aplicou-se o questionário com 104 estudantes do curso. A análise dos dados permitiu verificar a influência dos fatores anteriormente citados de auto-regulação e contato social na percepção (1) dos resultados, (2) da qualidade e (3) da satisfação com o curso, (4) na percepção de efetividade dos cursos na Internet em comparação com os cursos presenciais e (5) na percepção das vantagens e desvantagens dos cursos na Internet. Os resultados mostram que os estudantes que conseguiram auto-regular melhor o ambiente social, o tempo, o esforço e o ambiente de estudo, além de apresentarem uma maior necessidade de apoio emocional, perceberam uma maior efetividade e qualidade no Curso de Capacitação de Técnicos do NTE, além de ficarem mais satisfeitos Também se verificou que os estudantes que acreditam que em muitos aspectos os cursos na Internet podem ser mais efetivos do que os cursos presenciais, apresentam igualmente uma maior auto-regulação do tempo, do esforço, do ambiente social, além de uma maior tendência de prorrogação da gratificação acadêmica, uma necessidade relativamente grande de atenção e intermediária de estímulo positivo. Os resultados encontrados mostraram ainda que os estudantes que identificaram mais vantagens nos cursos via Internet foram também mais capazes na gestão do ambiente social, do tempo, do esforço, além de apresentarem uma maior tendência à prorrogação da gratificação acadêmica e uma relativamente alta necessidade de apoio emocional e estímulo positivo. Por fim, se identificou grupos de estudantes com perfis similares de preferência por contato social e de auto-regulação dos recursos de aprendizagem e a influência destes perfis na efetividade dos cursos desenvolvidos na Internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Métodos ‘in vivo’ são ideais para avaliar o valor nutritivo dos alimentos, porém são caros, demorados e avaliam poucos alimentos por vez. Portanto, métodos ‘in vitro’ e ‘in situ’ têm sido freqüentemente utilizados. Entre estes, tem se destacado a técnica de produção de gases ‘in vitro’, a qual vem sendo amplamente utilizada, particularmente pelos países do Hemisfério Norte. A sua modificação, tornando-a mais prática e semi-automatizada, tem impulsionado a sua utilização no Brasil. No entanto, a validação do uso desta técnica nos sistemas tropicais de produção animal necessita ainda ser estabelecido. O objetivo deste trabalho foi testar a técnica de produção cumulativa de gases ‘in vitro’, na avaliação da qualidade fermentativa e nutritiva de silagens de milho, e comparar seus resultados com os métodos tradicionais de digestibilidade ‘in vitro’ e de degradabilidade ‘in situ’. Para tanto foram utilizadas como ferramenta de pesquisa, silagens de milho colhidas em diferentes estágios de desenvolvimento e submetidas à diferentes níveis de compactação à ensilagem. Utilizado complementarmente à análise químico-bromatológica, o método de produção de gases ‘in vitro’ demonstrou ser uma boa ferramenta para avaliação da qualidade dos alimentos para ruminantes. Quando comparado ao método in vitro tradicional, possui as vantagens do método ‘in situ’ por estimar também a cinética da degradação ruminal do alimento. Contudo, é mais prático e, por possibilitar conhecer as taxas de degradação de diferentes frações dos alimentos, foi também mais sensível. Além disso, embora necessitando ainda adequada validação in vivo, permitiu estimar a eficiência da síntese microbiana ruminal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Historicamente, devido à incompreensibilidade dos fenômenos físicos envolvidos, diversas técnicas de análise experimental de escoamentos foram desenvolvidas. Inicialmente, estas técnicas consistiam em uma simples visualização do escoamento em questão. Visava-se com isto produzir a intuição física a respeito do sistema físico para que futuras teorias pudessem ser formuladas. No entanto, nos anos posteriores, tornou-se necessária a criação de técnicas quantitativas. Neste segmento, a evolução tecnológica da eletrônica propiciou que técnicas intrusivas e não intrusivas fossem criadas. Tal processo culminou com o surgimento da microeletrônica, quando sensores eletrônicos de imagem puderam ser fabricados. Assim, técnicas não intrusivas de velocimetria através de processamento digital de imagens tornaram-se referência, possibilitando a medição de campos de velocidade do escoamento em análise. Tais técnicas são atualmente utilizadas não apenas no meio acadêmico, na investigação da turbulência, como na indústria, em projetos de engenharia que envolvam alta tecnologia. Neste trabalho, apresenta-se uma metodologia para a concepção de um sistema de velocimetria de 2 dimensões por processamento digital de imagens. Para tanto, o sistema de velocimetria foi dividido em duas partes, sendo os equipamentos bem como os conceitos físicos envolvidos em cada uma analisados e descritos Por fim, projetou-se e implementou-se um sistema de velocimetria de 2 dimensões através de processamento digital de imagens, modo PIV. A sua validação foi efetuada sobre um escoamento altamente turbulento interno a um duto circular, cuja solução é conhecida e exaustivamente estudada no decorrer dos anos. O resultado obtido se apresentou totalmente satisfatório e demonstrou a grande importância atual de tal técnica de medição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um sistema de classificação de voz disfônica utilizando a Transformada Wavelet Packet (WPT) e o algoritmo Best Basis (BBA) como redutor de dimensionalidade e seis Redes Neurais Artificiais (ANN) atuando como um conjunto de sistemas denominados “especialistas”. O banco de vozes utilizado está separado em seis grupos de acordo com as similaridades patológicas (onde o 6o grupo é o dos pacientes com voz normal). O conjunto de seis ANN foi treinado, com cada rede especializando-se em um determinado grupo. A base de decomposição utilizada na WPT foi a Symlet 5 e a função custo utilizada na Best Basis Tree (BBT) gerada com o BBA, foi a entropia de Shannon. Cada ANN é alimentada pelos valores de entropia dos nós da BBT. O sistema apresentou uma taxa de sucesso de 87,5%, 95,31%, 87,5%, 100%, 96,87% e 89,06% para os grupos 1 ao 6 respectivamente, utilizando o método de Validação Cruzada Múltipla (MCV). O poder de generalização foi medido utilizando o método de MCV com a variação Leave-One-Out (LOO), obtendo erros em média de 38.52%, apontando a necessidade de aumentar o banco de vozes disponível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese visa estudar um procedimento obstétrico clínico rotineiro, recomendado por várias sociedades obstétricas no mundo, inclusive a Federação Brasileira das Sociedades de Ginecologia e Obstetrícia e o Ministério da Saúde do Brasil, a medida de altura uterina. A recomendação é medir a distância entre o bordo superior da sínfise púbica e o fundo do útero (com fita inextensível, marcada em centímetros) a cada consulta pré-natal, e cotejar o valor obtido a valores de referência, determinados por uma curva padrão definida por percentis de altura uterina obtidos ao longo da gravidez. O objetivo desse procedimento é detectar anormalidades no crescimento fetal, seja crescimento excessivo ou insuficiente. O crescimento fetal excessivo está associado a aumento na morbidade perinatal, por aumento dos casos de hipóxia e de traumatismo secundários a parto distócico, além de maior risco de obesidade e diabetes tipo 2 na vida adulta. Também eleva a morbidade materna, por aumento no número de cesáreas e partos instrumentados. A importância da detecção de gestações com crescimento fetal insuficiente reside nos índices aumentados de mortalidade e de morbidade nesses recém-nascidos, no período perinatal, neonatal e pós-natal, até à vida adulta. Método de baixos custo e complexidade, não invasivo e aplicável durante a consulta pré-natal usual, a medida da altura uterina ao longo da gestação tem algumas das características desejáveis em um teste de rastreamento. Entretanto, seu desempenho na identificação das anormalidades do crescimento fetal intra-uterino tem achados bastante desiguais na literatura. Assim como grande parte das características fetais, a altura uterina é diretamente dependente do tempo de gestação e, portanto, erros na datação da gestação podem interferir no desempenho do método como indicador de anormalidade de crescimento intra-uterino Esta tese, baseada em dados do Estudo Brasileiro do Diabetes Gestacional (EBDG), avalia o impacto clínico da medição rotineira da altura uterina em gestantes que fazem acompanhamento pré-natal no Sistema Único de Saúde (SUS). No primeiro artigo, descrevemos a distribuição das medidas de altura uterina a cada semana de gestação obtidas no EBDG e a confrontamos com a distribuição descrita no estudo do Centro Latino-Americano de Perinatologia (CLAP). Determinamos também o desempenho diagnóstico das duas distribuições na identificação de recém-nascidos pequenos e grandes para a idade da gestação nas gestantes do estudo brasileiro. No segundo artigo, derivam-se e testam-se regras clínicas para a detecção pré-natal de recém-nascidos pequenos para a idade gestacional, agregando à medida da altura uterina outras características clínicas associadas a esse desfecho da gravidez. Utiliza-se a divisão randômica da população estudada em duas coortes, uma para derivação das regras clínicas de predição e a outra para a testagem e validação dessas regras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo teve por objetivo compreender como a espiritualidade permeia o processo de cuidar de si e do outro no mundo da terapia intensiva, sob o olhar das cuidadoras de enfermagem. A pesquisa caracterizou-se por uma abordagem qualitativa do método criativo-sensível de Cabral, que guiou a produção e a análise das informações, seguindo as etapas de codificação, decodificação e recodificação ou aliança de saberes. Contou-se com a participação de nove cuidadoras de enfermagem, duas enfermeiras e sete técnicas de enfermagem, do Centro de Tratamento Intensivo (CTI) de um hospital universitário. Para a produção das informações, foram realizadas nove oficinas de arte e de experiências, sendo que a última destinou-se à validação da análise das informações. Nesse percurso, emergiram os seguintes temas: os significados de espiritualidade; a espiritualidade no cuidado de si e a espiritualidade no cuidado do outro. O primeiro tema exprimiu os significados de espiritualidade como propósito de vida, como conexão com uma Força Superior e com o Cosmo e como autoconhecimento. O segundo tema evidenciou que a espiritualidade no cuidado de si estava nas práticas cotidianas que aconteciam por meio da oração, do contato íntimo com a natureza, assim como no senso de conexão com uma Força Superior que propiciava tranqüilidade, bem-estar e fortalecimento à vida e ao trabalho das cuidadoras no CTI. As participantes demonstraram estar conscientes de si mesmas quando reconheceram que se fragilizavam com o mundo vivido e precisavam também de cuidado, que poderia se dar na ajuda mútua entre os cuidadores. O autoconhecimento revelou-se como uma prática essencial no cuidado de si para melhor cuidar do outro. E o terceiro tema desvelou que a espiritualidade no cuidado do outro partiu da fragmentação do cuidador e do cuidado intensivo para um caminho de reintegração do ser humano, capaz de transformar a cultura que inibiu e oprimiu o cuidado expressivo no CTI. A espiritualidade revelou-se nas práticas de cuidado que incluíam fé, imposição de mãos e oração, assim como foi algo que emergiu da interioridade humana para se manifestar na relação com outro no modo de ser do cuidador e se revelou no olhar, na atenção, no carinho, na amorosidade, no diálogo que tranqüilizava, na mão que dava conforto e segurança, na capacidade de escuta e de construir confiança em uma ambiência de cuidado para os envolvidos neste encontro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta metodológica para o ensino de Ciência da Computação para Crianças, elaborada, a partir de pesquisas e estudos, tendo, como objetivo, a aplicação dessa metodologia para correção e testes. Devido à disseminação dos computadores e de seu uso como parte da formação dos alunos, muito se tem discutido sobre a união entre os recursos tecnológicos e a educação. A inclusão da informática no processo educativo vem sendo direcionada para a utilização e classificação de produtos de software educacional, em técnicas de comunicação à distância, no uso de recursos de multimídia ou de realidade virtual para apoio ao conteúdo abordado pelo professor e, também, para a construção de ambientes computacionais, que possam proporcionar uma mudança de paradigma educacional. No entanto não adianta tornar disponível toda essa tecnologia, se, rapidamente, são abandonadas e são substituídas ferramentas e técnicas dentro da Computação. Por isto, tão importante quanto o ensino das tecnologias correntes é o ensino dos conceitos fundamentais da Ciência da Computação. Esses conceitos, além de proporcionarem um embasamento teórico para entendimento da ciência envolvida na computação, também propiciam o desenvolvimento de um raciocínio lógico e formal, assim como de habilidades que são exigidas no mundo atual. Este trabalho apresenta pesquisas de campo sobre o uso da Informática Educativa em algumas escolas, a identificação, através de professores da graduação e pós-graduação, de alguns dos conceitos fundamentais da Ciência da Computação e uma pesquisa sobre o que crianças gostariam de aprender sobre Ciência da Computação. A partir dos resultados, são elaboradas teorias, demonstrações e exercícios para o ensino destes para crianças. Essa metodologia é aplicada a duas turmas heterogêneas de crianças para sua validação. Pretende-se que o estudo desses conceitos aguce o senso crítico e capacite as crianças não só a usarem as tecnologias mas também a entenderem seu funcionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentada a solução da equação de difusão-advecção transiente para simular a dispersão de poluentes na Camada Limite Planetária. A solução é obtida através do método analítico GILTT (Generalized Integral Laplace Transform Technique) e da técnica de inversão numérica da quadratura de Gauss. A validação da solução é comprovada utilizando as concentraçãos obtidas a partir do modelo com as obtidas experimentalmente pelo Experimento de Copenhagen. Nesta comparação foram utilizados os perfis de vento potencial e logaritmo e os parâmetros de turbulência propostos por Degrazia et al (1997) [19] e (2002) [17]. Os melhores resultados foram obtidos utilizando o perfil de vento potencial e o coeficiente de difusão propostos por Degrazia et al (1997). A influência da velocidade vertical é mostrada através do comportamento das concentrações de poluentes na pluma. Além disso, as velocidades verticais e longitudinais geradas pelo Large Eddy Simulation (LES) foram colocadas no modelo para poder simular uma camada limite turbulenta mais realística, a qual apresentou resultados satisfatórios quando comparados com os disponíveis na literatura.