928 resultados para Processo de validação de escalas


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tomada de decisão é fator crucial nas organizações. As informações para subsidiar estes processos decisórios é que permitem ao decisor minimizar as incertezas e decidir melhor. Para que estas informações estejam disponíveis, devem ser construídos Sistemas de Informações (SI) com base nas necessidades dos decisores, através da adequada definição dos requisitos de informações. Este trabalho tem como objetivo a validação externa da metodologia Análise Focada na Decisão (AFD), desenvolvida por Santos, Becker e Fisher (1998) e que tem por objetivo definir os requisitos de informações para o desenvolvimento de SI. Tem como foco da análise o processo decisório e é composta por fases seqüenciais de atividades de análise e de modelagem de sistema, resultando um modelo integrado de fluxo de dados, onde os objetos estão centrados nas classes de decisões. A aplicação da AFD foi realizada em um hospital regional filantrópico, através de estudo de caso, sendo o Prontuário do Paciente (PP) o elemento central de integração. O objetivo da aplicação da metodologia é a definição das informações essenciais do PP, tendo como classes de decisão os usuários representativos das áreas médica, de enfermagem e administrativa e o modelo integrado resultante é a base para a definição das informações essenciais do PP. Pode-se concluir que a AFD é uma metodologia adequada para a definição de requisitos de informações, uma vez que os resultados de sua aplicação foram extremamente satisfatórios, pois, além do alcance dos objetivos propostos, propiciou mudanças na empresa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A resposta da vegetação às condições ambientais pode ser observada nos diferentes padrões da paisagem. Estas respostas são o reflexo da atuação de fatores bióticos e abióticos que são responsáveis pela distribuição complexa observada nos mosaicos paisagísticos, em diferentes escalas – espaciais e temporais. Neste sentido, o presente trabalho teve como objetivo elucidar as possíveis relações entre a vegetação e as características edáficas, em uma área de mineralização de cobre, mina Volta Grande, Lavras do Sul, RS. Com bases na ecologia de paisagem, utilizamos diferentes ferramentas para analisar a vegetação - métodos dos pontos e determinação dos tipos funcionais de plantas – e o solo – determinação das características geomorfológicas, químicas e físicas do solo, e o processo pedogenético – tendo em vista o estabelecimento de unidades da paisagem - ecótopos. De acordo com os resultados obtidos, distinguiram-se 8 diferentes ecótopos vegetacionais, expressos nas três escalas de abordagem (meso, micro e macro escala). Os ecótopos com maior expressividade são os savanóides, estando estes provavelmente associados às ocorrências dos filões de cobre. Com relação às concentrações de cobre disponível no solo, não se observou, estatisticamente, nenhum valor de correlação entre a as características dos tipos funcionais e as concentrações deste metal nos solos estruturados. Os tipos funcionais revelaram a existência de adaptações escleromórficas nos indivíduos constituintes da vegetação de savana. Além disto, observamos a existência de um gradiente vegetacional – formações campestres, savanas e florestas, e um gradiente edáfico – afloramento rochoso, litossolos e cambissolos, ambos relacionados com a geomorfologia da área da mina.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O processo Spheripol é, atualmente, um dos mais utilizados na produção industrial de polipropileno e seus copolímeros. É composto por dois reatores tipo loop em série e, em alguns casos, um ou dois reatores tipo fase gás também em série. Neste trabalho é apresentado um modelo para os reatores loop do processo Spheripol. Os reatores loop são modelados como CSTR não ideais. O esquema cinético implementado é relativamente amplo, sendo capaz de englobar copolimerizações multisítio. Uma análise qualitativa do modelo é feita utilizando parâmetros cinéticos presentes na literatura e uma análise quantitativa do modelo é feita com base em dados reais de planta industrial. Ainda com base em dados de planta é feita uma estimação de parâmetros e a validação do modelo. Finalmente, o modelo com parâmetros estimados é aplicado num estudo de caso no qual também é criado um modelo de equilíbrio termodinâmico para a mistura reacional baseado na lei de Henry e na equação de estado de Peng-Robinson.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa tem como objetivo validar externamente a Metodologia da Análise Focada na Decisão (AFD) desenvolvida por Santos, Becker e Fisher (1998) a partir do estudo de atividades desenvolvidas por um grupo de funcionários da Secretaria de Estado da Agricultura do Paraná – SEAB. A AFD define os requisitos de informações para o desenvolvimento de Sistema de Informação (SI), com foco de análise no processo decisório e executada em fases seqüenciais de análise e de modelagem de sistema. A aplicação da AFD foi realizada na SEAB, através do estudo feito junto à Divisão de Produção de Sementes e Mudas, o foco das observações. Utilizando-se a AFD definiu-se as informações essenciais, tendo como classes de decisão aquelas geradas pelos funcionários que atuam direta e indiretamente com a citada Divisão. A AFD mostrou-se um método adequado para a definição de requisitos de informações, pois os resultados de sua aplicação foram relevantes não apenas dentro dos objetivos propostos, mas propiciou, também, grande interesse em outras áreas da SEAB. Validou-se a metodologia pela confirmação de sua eficácia junto aos especialistas da área conforme relatado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cada vez mais muitos processos industriais convencionais de separação, tais como destilação, centrifugação e extração com solventes, entre outros, estão sendo substituídos pelos processos de separação por membranas em virtude desses apresentarem vantagens em relação aos processos convencionais, além de serem considerados uma tecnologia limpa. Entre estas vantagens pode-se citar a economia de energia, pois não envolvem mudança de fase; a possibilidade de processamento de substâncias termolábeis, pois podem operar à temperatura ambiente; a maior seletividade; a facilidade de scale – up, pois são modulares e não extensivos em mão de obra, entre outros. Uma característica limitante destes processos é a existência de uma camada de elevada concentração de partículas ou moléculas que se forma próxima à superfície da membrana e que ocasiona uma redução no fluxo permeado, podendo modificar as características de retenção da membrana. Este fenômeno é conhecido como polarização por concentração. O entendimento dos mecanismos de polarização é considerado de grande importância neste campo e o estudo e validação de modelos matemáticos preditivos torna-se necessário para se obter sucesso na aplicação dos processos com membranas no meio industrial O objetivo geral deste trabalho consiste na análise teórico-experimental do processo de microfiltração tangencial com suspensão aquosa de partículas de sílica. O objetivo específico é a utilização de dados experimentais para a estimação de um parâmetro do modelo matemático que descreve o perfil de concentração na superfície da membrana ( membrana). A configuração tangencial implica que a alimentação, contendo as partículas a serem removidas ou concentradas, flui paralelamente à superfície da membrana reduzindo, assim, o fenômeno de polarização por concentração. Os experimentos foram efetuados em uma unidade de bancada de microfiltração tangencial, também conhecido como fluxo cruzado, em um módulo para membrana plana com canal de escoamento retangular sob condições de escoamento laminar. Os seguintes parâmetros foram variados durante os experimentos: pressão transmembrana, velocidade tangencial e concentração de partículas de sílica Os dados experimentais foram utilizados em uma modelagem matemática, baseada nas equações fundamentais da mecânica dos fluidos e da transferência de massa, que considera as propriedades físicas da suspensão, viscosidade dinâmica e difusividade mássica, variáveis com a concentração de sílica para se estimar a concentração máxima de sílica junto à superfície da membrana. Esta modelagem engloba os parâmetros operacionais, bem como as características da membrana nesta única variável. Com a finalidade de se verificar como a concentração máxima sobre a membrana é afetada pelas condições operacionais e, conseqüentemente, como esta afeta o fluxo permeado, a concentração máxima sobre a superfície da membrana é apresentada em função das condições operacionais variadas durante os experimentos de microfiltração. Finalmente, após a estimação desta variável, pôde-se concluir que ela é influenciada pelas condições operacionais típicas do processo de microfiltração tangencial, tais como velocidade tangencial de escoamento, pressão através da membrana e concentração da alimentação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente estudo desenvolve-se numa perspectiva prática, visando à integração de conhecimentos gerados pela pesquisa a atividades assistenciais no hospital geral universitário, dirigindo-se, especificamente, à questão da detecção da depressão. A depressão é um problema de saúde pública no mundo inteiro, transtorno mental de alta prevalência, com elevado custo para os sistemas de saúde. Entre pacientes clínicos e cirúrgicos, hospitalizados, aumenta a complexidade dos tratamentos, implica maior morbidade e mortalidade, importando também no aumento do tempo e dos custos das internações. Por outro lado, a depressão é subdiagnosticada. Este estudo, originado de um projeto cujo objetivo foi criar um instrumento para a detecção de depressão, utilizável na rotina assistencial, a partir da avaliação do desempenho de escalas de rastreamento já existentes, desdobra-se em três artigos. O primeiro, já aceito para publicação em revista indexada internacionalmente, é a retomada de estudos anteriores, realizados no final da década de 1980. É apresentada a comparação da detecção de depressão, realizada por médicos não-psiquiatras e por enfermeiros, no Hospital de Clínicas de Porto Alegre (HCPA), em 1987 e em 2002. O segundo artigo apresenta o processo de construção da nova escala, a partir da seleção de itens de outras escalas já validadas, utilizando modelos logísticos de Rasch. A nova escala, composta por apenas seis itens, exige menos tempo para sua aplicação. O terceiro artigo é um estudo de avaliação de desempenho da nova escala, denominada Escala de Depressão em Hospital Geral (EDHG), realizado em uma outra amostra de pacientes adultos clínicos e cirúrgicos internados no HCPA. O segundo e terceiro artigos já foram encaminhados para publicação internacional. Esses estudos, realizados em unidades de internação clínicas e cirúrgicas do Hospital de Clínicas de Porto Alegre, permitiram as seguintes conclusões: a) comparando-se os achados de 1987 com os de 2002, a prevalência de depressão e o seu diagnóstico, em pacientes adultos clínicos e cirúrgicos internados, mantêm-se nos mesmos níveis; b) foi possível selecionar um conjunto de seis itens, que constituíram a nova Escala de Depressão em Hospital Geral (EDHG), baseando-se no desempenho individual de cada um dos 48 itens componentes de outras três escalas (BDI, CESD e HADS); c) a EDHG apresentou desempenho semelhante aos das escalas que lhe deram origem, usando o PRIME-MD como padrão-ouro, com a vantagem de ter um pequeno número de itens, podendo constituir-se num dispositivo de alerta para detecção de depressão na rotina de hospital geral.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os objetivos gerais desta tese foram a otimização do processo de congelamento do camarão, e a avaliação do efeito da adição do fosfato que pode afetar o rendimento e a qualidade do produto, conforme percebido pelo consumidor final. Inicialmente, foi feito um levantamento da capacidade tecnológica das empresas de pescado do Brasil. A seguir, foi feita uma revisão da literatura, buscando entender as variáveis que afetam o processo de congelamento do pescado, particularmente as questões associadas ao uso do fosfato no processamento do camarão. Após a revisão da literatura, foi elaborado um planejamento experimental, onde foi possível obter dados referentes ao rendimento (evolução do peso do produto) em cada etapa estudada: imersão em soluções de fosfato, congelamento, descongelamento e cocção. Os melhores rendimentos foram obtidos pelo congelamento com N2 líquido e com o uso de fosfato. A partir desses resultados preliminares, encontrou-se o ajuste ótimo dos fatores analisados e, a partir dele, foram executados novos ensaios para a validação das previsões de rendimento e complementação do estudo através de análises químicas e sensoriais. O uso de fosfato mostrou-se eficaz na retenção de água no descongelamento e após a cocção. Observou-se menor perda de peso no descongelamento do camarão tratado com blend de fosfato (-1,87 %) quando comparado com o Tripolifosfato de sódio – TPF (-2,86%) e controle (imersão em água, -15,5%) O mesmo foi verificado após a cocção: Blend (-7,61%), TPF (-9,05%) e controle (-25,3%). Esses rendimentos foram comprovados com a diminuição da perda de exsudado (drip loss) no descongelamento e após a cocção, o aumento do teor de umidade após a imersão em fosfato e a sua retenção após o descongelamento e cocção. Os níveis residuais de fosfato (TPF e blend) estavam abaixo do limite 0,5% estabelecido pela legislação internacional. Os resultados da análise sensorial demonstraram que o camarão tratado com fosfato reteve os atributos sensoriais, contribuindo, assim, para a maior preferência e aceitação pelos julgadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo dos mecanismos de defesa do ego tem servido como indicativo do modo típico de um indivíduo lidar com os conflitos. Os mecanismos de defesa podem ser agrupados em três fatores alocados de forma hierárquica: fatores maduros, neuróticos e imaturos. Bond desenvolveu um questionário objetivo e auto-aplicável, o Defensive Style Questionnaire – DSQ, que visa identificar os derivados conscientes dos mecanismos de defesa. O objetivo desse estudo é o de descrever o processo de tradução do Defensive Style Questionnaire (DSQ-40) versão em português e avaliar a confiabiidade, validade de conteúdo de constructo dessa versão do instrumento. Métodos: A primeira versão da escala foi apresentada para cinco indivíduos, com graus diferentes de escolaridade, que efetuaram pequenos ajustes de linguagem. Posteriormente, a escala foi apresentada para três “experts”, que avaliaram a validade de conteúdo do instrumento. A versão final foi retraduzida e apresentada para o autor do instrumento original que aceitou essa versão do DSQ-40. Posteriormente foi avaliada a confiabilidade e validade da versão em português do Defensive Style Questionnaire (DSQ-40). A amostra constitui-se de 339 indivíduos. Uma subamostra (n=75) foi avaliada também pelo MMPI, e outra subamostra (n=66) foi também avaliada pelo DFS (Escala de Funcionamento Defensivo). Resultados: Houve necessidade de pequenos ajustes no vocabulário em oito questões e modificações na linguagem em quatro questões, resultando na versão final do instrumento. A média de correlação dos “experts” com cada defesa foi de 89%, e dos fatores maduros, imaturos e neuróticos foi de 100%. A análise fatorial do instrumento forneceu uma distribuição das defesas semelhante ao instrumento original. A avaliação teste-reteste demonstrou boa correlação intraclasse em todos os fatores. O uso de defesas imaturas e neuróticas foi maior entre os pacientes que os controles (p<0,05). Houve correlação entre o nível defensivo de acordo com o DFS (p=0,006) e MMPI (p=0,004) e as defesas imaturas. Conclusões: A adaptação do DSQ-40 por diferentes indivíduos com diferentes graus de escolaridade e pelo grupo de experts possibilitou o ajuste à realidade sociocultural brasileira. Os dados do presente estudo indicam que a versão em português do DSQ-40 possui características psicométricas que permite o seu uso na nossa cultura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A inclusão de pessoas com deficiência é um desafio, não só, para as organizações, quanto também, para as pessoas com deficiência que desejam um trabalho onde possam ter seus direitos respeitados e resguardados. Nesse processo o profissional de Gestão de Pessoas tem um papel que é o de tornar o ambiente acessível a todos, mapear os cargos e postos de trabalho, sensibilizar as pessoas da empresa, capacitar os gestores para a minimização do impacto da integração ao ambientes de trabalho e domínio das ferramentas de contratação dos profissionais com deficiência, validação do programa de inclusão, e de capacitação de profissionais com deficiência. Este trabalho objetiva pesquisar se os profissionais de Gestão de Pessoas estão aptos para o desafio de implantar e desenvolver as políticas internas de inclusão das pessoas com deficiência, nas empresas em que atuam. Para tanto, foi feito uma pesquisa juntos aos profissionais responsáveis pelos programas de inclusão, em empresas com mais de 1.000 funcionários no município de São Luís – MA, para avaliar as práticas adotadas pelas organizações.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A necessidade de se desenvolverem instrumentos adequados a avaliação de programas educacionais é premente no momento atual. Segundo os estudos mais recentes no campo da medida educacional, os testes com referência a critério são os que atendem a esta necessidade. Este estudo teve por objetivo a construção de dois testes deste tipo para a avaliação do Programa de Alfabetização Funcional do MOBRAL nos dominios da aquisição das competências basicas em leitura e escrita. Inicialmente foram selecionadas e descritas quatro competências para serem medidas por cada teste. As competências foram selecionadas tendo como base os objetivos do programa apresentados no Roteiro de Orientação ao Alfabetizador (1977). A segunda etapa do estudo consistiu na criação das especificações para cada competência selecionadas nos dois dominios. A partir destas especificações foram construidos 32 itens para o teste de leitura e 40 para o de escrita. Estes itens foram, distribuidos randomicamente em 5 formas experimentais para cada teste. O teste de leitura é composto de itens de múltipla escolha e o teste de escrita de itens de resposta construida. Os criterios de correção e os padrões minimos de desempenho foram estabelecidos para cada teste. Para a analise destes padrões minimos foram calculados as medias e os desvios-padrão para cada forma aplicada. Estes resultados permitem a manutenção dos padrões minimos usados em estudos posteriores. A análise dos itens foi feita em duas etapas: na primeira foram calculados os indices de discriminância pelo processo tradicional e na segunda os indices de sensitivida de pelo processo desenvolvido por Gronlund (1976). Os resultados obtidos permitiram o aproveitamento de todos os itens. Os itens foram divididos em duas formas equivalentes para cada teste, cada um pode ser subdividido em três subtestes para a medida isolada das competências descritas. Para o exame de validade foram estabelecidos os indices de validade descritiva e de seleção de dominio. A fidedignidade dos testes ficou assegurada com a construção de mais de 5 itens para competência Gronlund (1976).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho abordou o tema validação de processos farmacêuticos, tendo como objetivos o levantamento do referencial teórico relativo ao tema, o acompanhamento do projeto de elaboração de um Plano Mestre de Validação (PMV) em uma empresa Farmacêutica e a apresentação de uma proposta para a elaboração de um Plano Mestre de Validação de processos farmacêuticos. De acordo com a revisão da literatura, a validação na produção de medicamentos em empresas farmacêuticas deve ser resultado do trabalho de uma equipe de profissionais de diferentes departamentos da empresa. Este perfil multifuncional da equipe implica em comprometimento com o trabalho a ser realizado, definição de responsabilidades e atividades. A proposta apresentada sugere um caminho para a elaboração desse Plano, contemplando as validações do tipo prospectivas, através da abordagem de projetos e das etapas que o caracterizam: definição conceitual, planejamento, execução e conclusão. Além da revisão bibliográfica, a proposta foi concebida com base no trabalho realizado junto a uma empresa farmacêutica, resultando na construção de três fluxos, referentes a: tipos de validação, etapas da validação e etapas pós-validação. O trabalho prático conduzido junto à empresa permitiu a estruturação de um PMV para um processo de produção específico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo teve por objetivo compreender como a espiritualidade permeia o processo de cuidar de si e do outro no mundo da terapia intensiva, sob o olhar das cuidadoras de enfermagem. A pesquisa caracterizou-se por uma abordagem qualitativa do método criativo-sensível de Cabral, que guiou a produção e a análise das informações, seguindo as etapas de codificação, decodificação e recodificação ou aliança de saberes. Contou-se com a participação de nove cuidadoras de enfermagem, duas enfermeiras e sete técnicas de enfermagem, do Centro de Tratamento Intensivo (CTI) de um hospital universitário. Para a produção das informações, foram realizadas nove oficinas de arte e de experiências, sendo que a última destinou-se à validação da análise das informações. Nesse percurso, emergiram os seguintes temas: os significados de espiritualidade; a espiritualidade no cuidado de si e a espiritualidade no cuidado do outro. O primeiro tema exprimiu os significados de espiritualidade como propósito de vida, como conexão com uma Força Superior e com o Cosmo e como autoconhecimento. O segundo tema evidenciou que a espiritualidade no cuidado de si estava nas práticas cotidianas que aconteciam por meio da oração, do contato íntimo com a natureza, assim como no senso de conexão com uma Força Superior que propiciava tranqüilidade, bem-estar e fortalecimento à vida e ao trabalho das cuidadoras no CTI. As participantes demonstraram estar conscientes de si mesmas quando reconheceram que se fragilizavam com o mundo vivido e precisavam também de cuidado, que poderia se dar na ajuda mútua entre os cuidadores. O autoconhecimento revelou-se como uma prática essencial no cuidado de si para melhor cuidar do outro. E o terceiro tema desvelou que a espiritualidade no cuidado do outro partiu da fragmentação do cuidador e do cuidado intensivo para um caminho de reintegração do ser humano, capaz de transformar a cultura que inibiu e oprimiu o cuidado expressivo no CTI. A espiritualidade revelou-se nas práticas de cuidado que incluíam fé, imposição de mãos e oração, assim como foi algo que emergiu da interioridade humana para se manifestar na relação com outro no modo de ser do cuidador e se revelou no olhar, na atenção, no carinho, na amorosidade, no diálogo que tranqüilizava, na mão que dava conforto e segurança, na capacidade de escuta e de construir confiança em uma ambiência de cuidado para os envolvidos neste encontro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta Tese apresenta a investigação de técnicas computacionais que permitam a simulação computacional da compreensão de frases faladas. Esta investigação é baseada em estudos neurocognitivos que descrevem o processamento do cérebro ao interpretar a audição de frases. A partir destes estudos, realiza-se a proposição do COMFALA, um modelo computacional para representação do processo de compreensão da fala. O COMFALA possui quatro módulos, correspondentes às fases do processamento cerebral: processamento do sinal de fala, análise sintática, análise semântica e avaliação das respostas das análises. Para validação do modelo são propostas implementações para cada módulo do COMFALA. A codificação do sinal se dá através das transformadas ondeletas (wavelets transforms), as quais permitem uma representação automática de padrões para sistemas conexionistas (redes neurais artificiais) responsáveis pela análise sintática e semântica da linguagem. Para a análise sintática foi adaptado um sistema conexionista de linguagem escrita. Por outro lado, o sistema conexionista de análise semântica realiza agrupamentos por características prosódicas e fonéticas do sinal. Ao final do processo, compara-se a saída sintática com a semântica, na busca de uma melhor interpretação da fala.