62 resultados para Matemática - dificuldades de desempenho

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação objetiva a verificação do desempenho dos ensaios do tipo CRS, com velocidade controlada, quando comparados aos ensaios de adensamento oedométricos convencionais, SIC. O ensaio SIC é executado em vários estágios de carga, cada qual com vinte e quatro horas de duração e razão unitária entre o incremento de tensão e a tensão anterior, requerendo um prazo total de cerca de 10 dias para sua execução. Já o ensaio de adensamento com velocidade controlada, CRS, tem sua duração bastante reduzida, o que levou diversos pesquisadores da área de Geotecnia a concentrarem esforços no estudo de seu desempenho, visando sua utilização mais ampla. Para este estudo foi adquirido equipamento da empresa Hogentogler Inc., designado por GeoStar. Sua instalação, montagem e calibração foram realizadas no Laboratório de Mecânica dos Solos. Foram executados ensaios em corpos de prova obtidos de amostras de caulim, preparadas em laboratório, e também em amostras de solos originários de dois depósitos de diferentes regiões no Estado do Rio de Janeiro: baixada de Jacarepaguá e Itaboraí. A dissertação procurou detalhar a execução dos ensaios, as dificuldades da interpretação das planilhas originadas pelo sistema de aquisição de dados, acoplado ao equipamento GeoStar, as mudanças efetuadas, as ocorrências não previstas, a análise e interpretação dos resultados e a comparação dos parâmetros obtidos com os ensaios SIC e CRS. Procurou-se estudar o efeito da velocidade de deformação, histórico de tensões, qualidade dos corpos de prova, parâmetros do ensaio, facilidade de execução e desempenho. Verificou-se a simplicidade, rapidez e o desempenho satisfatório do ensaio CRS. Sugere-se estender estudos semelhantes a outros locais e, principalmente, a amostras de qualidade superior, na expectativa de confirmar as conclusões detalhadas nesta pesquisa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo dessa pesquisa é apresentar uma ferramenta alternativa ao valor econômico adicionado na mensuração da performance empresarial correlacionada com o valor de mercado. Na revisão da literatura apresenta-se o conceito de estrutura e custo de capital, utilizando a metodologia do CAPM e do APT. São igualmente apresentadas as principais medidas financeiras de desempenho tais como: retorno operacional sobre o investimento, retorno sobre o patrimônio liquido, retorno sobre os ativos, além de outras formas para cálculo do retorno. Na sequência introduzimos o conceito de lucro residual e o valor econômico adicionado, discutindo suas vantagens, desvantagens, dificuldades e limitações dessa ferramenta. Através do EVA podemos calcular o valor de mercado adicionado, fundamental para o cálculo do valor patrimonial ajustado. Também é apresentado nessa obra a interpretação do EVA pela ótica do modelo Fleuriet de planejamento financeiro. Após essa explanação teórica é apresentado o Financial Value Added proposto por esse trabalho, como alternativa ao Valor Econômico Adicionado na mensuração do desempenho empresarial. Essa ferramenta exclui da base de cálculo as receitas e despesas econômicas, uma vez que as mesmas em alguns casos distorcem o resultado como é constatado no teste com as empresas: Sadia S.A. e Perdigão S.A. onde os resultados foram 54% na Sadia e 13% na Perdigão superiores ao EVA. Em nenhum momento argumenta-se a substituição do EVA, apenas a introdução do FVA como alternativa nos casos em que o EVA não funcione adequadamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada em bancos de dados que podem ser explorados por pesquisadores com o objetivo de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados uma vez tendem a tirar uma nota inferior na prova de matemática, assim como alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores, como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam positivamente ou negativamente no aprendizado do discente. Também foi feita uma análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho em matemática e para a elaboração de políticas públicas na área de educação, voltadas ao ensino fundamental.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A identificação de danos estruturais é uma questão de fundamental importância na engenharia, visto que uma estrutura está sujeita a processos de deterioração e a ocorrência de danos durante a sua vida útil. A presença de danos compromete o desempenho e a integridade estrutural, podendo colocar vidas humanas em risco e resultam em perdas econômicas consideráveis. Técnicas de identificação de danos estruturais e monitoramento de estruturas fundamentadas no ajuste de um Modelo de Elementos Finitos (MEF) são constantes na literatura especializada. No entanto, a obtenção de um problema geralmente mal posto e o elevado custo computacional, inerente a essas técnicas, limitam ou até mesmo inviabilizam a sua aplicabilidade em estruturas que demandam um modelo de ordem elevada. Para contornar essas dificuldades, na formulação do problema de identificação de danos, pode-se utilizar o Modelo de Superfície de Reposta (MSR) em substituição a um MEF da estrutura. No presente trabalho, a identificação de danos estruturais considera o ajuste de um MSR da estrutura, objetivando-se a minimização de uma função de erro definida a partir das frequências naturais experimentais e das correspondentes frequências previstas pelo MSR. Estuda-se o problema de identificação de danos estruturais em uma viga de Euler-Bernoulli simplesmente apoiada, considerando as frequências naturais na formulação do problema inverso. O comportamento de uma viga de Euler-Bernoulli simplesmente apoiada na presença de danos é analisado, com intuito de se verificar as regiões onde a identificação dos mesmos pode apresentar maior dificuldade. No processo de identificação de danos, do presente trabalho, são avaliados os tipos de superfícies de resposta, após uma escolha apropriada do tipo de superfície de resposta a ser utilizado, determina-se a superfície de resposta considerando os dados experimentais selecionados a partir do projeto ótimo de experimentos. A utilização do método Evolução Diferencial (ED) no problema inverso de identificação de danos é considerado inerente aos resultados numéricos obtidos, a estratégia adotada mostrou-se capaz de localizar e quantificar os danos com elevada acurácia, mostrando a potencialidade do modelo de identificação de danos proposto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uma nova Constituição Federal foi estabelecida no final dos anos 80 conferindo à sociedade civil o direito de participar ativamente nas tomadas de decisões em diversas áreas, como a de recursos hídricos, através de representações de segmentos sociais. No contexto da gestão participativa das águas, o Estado do Rio de Janeiro instituiu sua Política Estadual de Recursos Hídricos, pela Lei n 3.239 em 1999, e criou o Sistema Estadual de Gerenciamento de Recursos Hídricos. Dentro das diretrizes estabelecidas pela Lei das Águas, nove comitês fluminenses foram criados, de acordo com as divisões de bacias hidrográficas. Este trabalho propõe analisar os comitês de bacia, quanto ao desempenho de suas atribuições, através de uma pesquisa qualitativa junto aos membros titulares desses colegiados. Com metodologia baseada no conceituado Projeto Marca dÁgua, um extenso questionário foi aplicado utilizando-se de uma plataforma Survey via internet, onde no total coletou-se 112 respostas. Dos resultados, no geral, conclui-se que os Comitês fluminenses vivem um momento de progresso e que a gestão realizada vem demonstrando resultados satisfatórios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Redes de trocadores de calor são bastante utilizadas na indústria química para promover a integração energética do processo, recuperando calor de correntes quentes para aquecer correntes frias. Estas redes estão sujeitas à deposição, o que causa um aumento na resistência à transferência de calor, prejudicando-a. Uma das principais formas de diminuir o prejuízo causado por este fenômeno é a realização periódica de limpezas nos trocadores de calor. O presente trabalho tem como objetivo desenvolver um novo método para encontrar a programação ótima das limpezas em uma rede de trocadores de calor. O método desenvolvido utiliza o conceito de horizonte deslizante associado a um problema de programação linear inteira mista (MILP). Este problema MILP é capaz de definir o conjunto ótimo de trocadores de calor a serem limpos em um determinado instante de tempo (primeiro instante do horizonte deslizante), levando em conta sua influência nos instantes futuros (restante do horizonte deslizante). O problema MILP utiliza restrições referentes aos balanços de energia, equações de trocadores de calor e número máximo de limpezas simultâneas, com o objetivo de minimizar o consumo de energia da planta. A programação ótima das limpezas é composta pela combinação dos resultados obtidos em cada um dos instantes de tempo.O desempenho desta abordagem foi analisado através de sua aplicação em diversos exemplos típicos apresentados na literatura, inclusive um exemplo de grande porte de uma refinaria brasileira. Os resultados mostraram que a abordagem aplicada foi capaz de prover ganhos semelhantes e, algumas vezes, superiores aos da literatura, indicando que o método desenvolvido é capaz de fornecer bons resultados com um baixo esforço computacional

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo é demonstrar que as informações fornecidas pela Lei Orçamentária Anual de 2010 da Prefeitura da Cidade do Rio de Janeiro e pelos seus respectivos relatórios de execução orçamentária, referentes aos investimentos em obras e instalações da Secretaria Municipal de Educação não permitem ao cidadão avaliar a eficácia e a eficiência dos seus representantes; também é objetivo deste estudo demonstrar que as alterações realizadas na Lei Orçamentária Anual de 2010 da Prefeitura da Cidade do Rio de Janeiro, referentes aos investimentos em obras e instalações da Secretaria Municipal de Educação, podem prejudicar uma possível avaliação da eficácia e eficiência do gestor representante e, finalmente, este estudo também objetiva sugerir possíveis sugestões e recomendações para que a Lei Orçamentária Anual da Prefeitura da Cidade do Rio de Janeiro e os seus respectivos relatórios de execução orçamentária passem a fornecer as informações necessárias para o cidadão avaliar a eficácia e a eficiência dos seus representantes. Para alcançar tais objetivos, serão abordados conceitos como: a) estado democrático, para demonstrar o contexto onde acontece a relação entre os cidadãos e os seus representantes eleitos; b) orçamento público, para discutir a sua função como instrumento de controle entre os cidadãos e os seus representantes eleitos; c) avaliação de desempenho, para demonstrar a importância desta para o gestor e para o controle dos cidadãos; e d) teoria da agência, para discutir o conflito decorrente entre os cidadãos e os seus representantes eleitos, de forma a permitir uma nova perspectiva desta relação. Para desenvolver este estudo será utilizado o método de estudo de caso, por ser o mais indicado para esse tipo de pesquisa. O caso escolhido foi a parte da Lei Orçamentária Anual de 2010 da Prefeitura da Cidade do Rio de Janeiro e seus respectivos relatórios de execução orçamentária, referente aos investimentos em obras e instalações da Secretaria Municipal de Educação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alguns autores entendem o declínio cognitivo como fator de risco para fragilidade. No entanto, outros estudos apresentam a fragilidade como fator de risco para declínio cognitivo. O presente estudo também entende a relação entre fragilidade e desempenho cognitivo neste sentido. Ainda são poucos os estudos que avaliaram esta associação na literatura internacional e não identificamos nenhum estudo conduzido no Brasil, ou mesmo na América Latina, que a tenha investigado. Este estudo tem como objetivo, investigar a associação entre a síndrome da fragilidade e desempenho cognitivo em idosos, e o efeito da escolaridade e da idade nesta associação. Para isto, analisaram-se dados seccionais da Fase 1 do Estudo da fragilidade em Idosos Brasileiros (Rede FIBRA - Fragilidade em Idosos Brasileiros), relativos à clientes de uma operadora particular de saúde, com 65 anos ou mais, residentes na zona norte da cidade do Rio de Janeiro. A população final de estudo foi de 737 idosos. O desempenho cognitivo foi avaliado através do Mini Exame do Estado Mental (MEEM). Foram considerados frágeis os indivíduos que apresentaram três ou mais das seguintes características: perda de peso não intencional (mais de 4,5Kg no último ano); sensação de exaustão auto-relatada; baixo nível de força de preensão palmar (sujeitos no primeiro quintil); baixo nível de atividade física (sujeitos no primeiro quintil do Minnesota) e lentificação da marcha (sujeitos no primeiro quintil). Também foram coletadas informações sobre características socioeconômicas e demográficas, apoio social, condições médicas e capacidade funcional. O desempenho cognitivo (MEEM) e a fragilidade foram analisados como variáveis dicotômicas. Avaliou-se o papel da idade e escolaridade como possíveis modificadoras de efeito na associação entre fragilidade e baixo desempenho cognitivo. A avaliação da associação entre fragilidade e desempenho cognitivo foi feita através de regressão logística multivariada. A variável idade se comportou como modificadora de efeito na associação entre fragilidade e desempenho cognitivo, x(5) = 806,97, p<0,0001. O mesmo não ocorreu com a variável escolaridade. Os idosos frágeis apresentaram uma maior prevalência de baixo desempenho cognitivo, quando comparados aos idosos não-frágeis ou pré-frágeis, nos três estratos estudados (65 a 74 anos;75 a 84 anos; >_85 anos), p<0,001. A associação entre fragilidade e baixo desempenho cognitivo foi encontrada somente em idosos com 75 anos ou mais, sendo OR bruto=2,68 (IC 95% 1,29 5,53) para idosos de 75 a 84 anos e OR bruto= 6,39 (IC 95% 1,82 - 22,42) para idosos de 85 anos ou mais. Após ajuste pelas condições de saúde, capacidade funcional e pelas variáveis socioeconômicas e demográficas, a associação entre fragilidade e baixo desempenho cognitivo se manteve nesses estratos, OR aj=2,78 (IC 95% 1,23 - 6,27) para 75 a 84 anos e OR aj=15,62 (IC 95% 2,20 110,99) para 85 anos ou mais. A síndrome da fragilidade está, portanto, associada ao baixo desempenho cognitivo em idosos. A idade revelou-se como modificadora de efeito nesta associação. Os idosos com idade mais avançada revelaram uma associação mais expressiva entre os dois fenômenos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A afasia pode ser definida como uma alteração no conteúdo, na forma e no uso da linguagem e de seus processos cognitivos subjacentes, tais como percepção e memória adquirida por lesão neurológica. Essa alteração é caracterizada por redução e disfunção, que se manifestam tanto no aspecto expressivo quanto no receptivo da linguagem oral e escrita, embora em diferentes graus em cada uma dessas modalidades (CHAPEY 1996). A alça fonológica constitui um dos três componentes do modelo de memória de trabalho proposto por Baddeley e Hitch (1974) e sua função é armazenar temporariamente as informações verbais e retê-las por um breve período tanto para a compreensão verbal como para a repetição acústica. De acordo com Gathercole e Baddeley (1993), a tarefa de repetição de não-palavras é capaz de solicitar mais a memória fonológica, uma vez que o fato do input ser desconhecido, e não exposto às influências lexicais ou ao uso de estratégias mnemônicas, possibilita avaliar as reais condições do sistema de memória. Considerando-se que afásicos têm dificuldades para memorizar palavras, frases ou instruções e que inexistem estudos nacionais que verificassem o desempenho de afásicos em um teste de não-palavras, a presente dissertação tem como objetivo verificar a integridade da alça fonológica de seis afásicos por meio da aplicação de um teste de não-palavras elaborado para tal objetivo. Como resultado, observou-se através das análises, desempenhos variados, porém com piora significativa no desempenho influenciado pelo aumento da extensão da palavra, corroborando assim, com estudos já realizados com outras categorias de distúrbios linguísticos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tema do presente estudo é o gerenciamento de resíduos químicos em ambientes hospitalares. Os resíduos químicos são gerados nas atividades auxiliares dos estabelecimentos prestadores de serviços de saúde, tais como hospitais, laboratórios, serviços de diagnóstico e tratamento, centros de saúde, clínicas, institutos de medicina legal e outros. Dentre todos, os hospitais, por suas características de atendimento, são, sem dúvida, os maiores geradores deste tipo de resíduo. Controlar e diminuir os riscos inerentes a este tipo de resíduos, além de ser uma exigência legal, passa a ser uma necessidade ambiental e um desafio a ser enfrentado pelos administradores de estabelecimentos assistenciais à saúde. O objetivo geral desta pesquisa passa então por avaliar o gerenciamento dos resíduos químicos gerados nos hospitais públicos da região metropolitana do Estado do Rio de Janeiro, abordando às necessidades e dificuldades enfrentadas por estes geradores que incluí aspectos políticos, administrativos, econômicos e em alguns casos físico-estruturais. Para atingir tal objetivo o método empregado foi dividido em duas etapas: I) Pesquisa Aplicada, onde foram visitados alguns hospitais públicos do Estado e utilizou-se um questionário para avaliar as questões relacionadas com o gerenciamento de resíduos químicos e II) Estudo de Caso, onde se considerou, através de observações e entrevistas, o gerenciamento de resíduos químicos de um hospital universitário de grande porte de maneira efetiva. Foram utilizadas como fontes secundárias informações obtidas em seminários relacionados ao tema, reportagens de jornais e entrevistas publicadas em fontes especializadas. Os resultados obtidos mostram que as dificuldades enfrentadas no gerenciamento de RSS, inclusos neste grupo os resíduos químicos, é uma realidade para a maioria dos hospitais da rede pública. Conclusão: o maior problema a ser enfrentado por estas instituições está diretamente ligado à conscientização, ou melhor, a falta de conscientização, de funcionários, médicos e gerência dos hospitais, quanto à importância da correta segregação, armazenagem e manuseio destes resíduos. Além disso, a falta de recursos financeiros e, em alguns casos, até de espaço físico também dificulta o efetivo gerenciamento deste tipo de resíduos. Problemas secundários relacionam-se com a falta de fiscalização dos órgãos sanitário-ambientais competentes e o descaso da própria população que não atenta para os problemas ambientais e de saúde e segurança, decorrentes de um incorreto gerenciamento não só dos resíduos químicos, mas de todos os resíduos de serviço de saúde. Como recomendação, pode-se dizer que se faz necessária uma maior mobilização por parte dos estabelecimentos hospitalares para a discussão e atendimento das legislações aplicáveis e também, o desenvolvimento de uma estrutura gerencial com responsabilidades definidas e ações planejadas, compatíveis com a realidade do serviço público, e que possam levar a alcançar os objetivos e metas de um gerenciamento dos resíduos de serviço de saúde.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Caminhos da formação de gestores de sistemas e serviços de saúde: uma análise da adequação entre teoria e a prática?. O cotidiano da gestão dos sistemas serviços de saúde é constituído de questões que perpassam o contexto das políticas econômicas, interagem com as faces das incorporações tecnológicas, estando intimamente relacionado ao componente regional e social. Nesse ambiente de alta labilidade torna-se importante a utilização de mecanismos que reforcem a interação entre educação e trabalho. A responsabilidade da formação profissional deve relacionar-se aos resultados das necessidades da assistência à saúde, guiadas pelos resultados de avaliações sistemáticas. O objetivo principal desta tese consistiu em analisar a adequação do conteúdo teórico representado nas dimensões de competências do Curso de Especialização em Gestão em Saúde do IMS/UERJ face às reais necessidades de aplicação das competências gerenciais dos egressos no desempenho de suas funções no dia a dia de trabalho. O estudo a adequação dos conteúdos educacionais ás necessidades contextuais dos processos de trabalho, importa na leitura das condições de enfrentamento dos problemas cotidianos, as dificuldades ou facilidades de soluções podem variar em função do nível de apropriação dos saberes trabalhados no processo aprendizagem. Ainda que as dificuldades da gestão no ambiente da saúde não resultem apenas de fatores ligados á formação profissional, essa vertente precisar ser monitorada visando contribuir com as reais necessidades de desempenho dos gerentes. Tais necessidades podem ser facilitadas pelo aumento da capacidade de análise contextuais e pelo domínio de manuseio de ferramentas técnicas que se configurem como instrumentos de resolução de problemas na realidade cotidianas. A partir do problema pesquisado, e dos resultados encontrados foi possível concluir, respondendo às questões de partida: (i) O curso de Especialização em gestão de saúde do IMS/UERJ atende as necessidades de desempenho profissional de seus egressos em suas funções cotidianas gerenciais considerando as respostas destes, classificando em mais 80% das dimensões de competência componentes do conteúdo programático como muito importante e indispensável no desempenho pratico de suas funções cotidianas. (ii) Os ajustes á serem inseridos ao conteúdo programático do Curso de Especialização em Gestão de Saúde, segundo seus egressos, e demais entrevistados para o atendimento das reais necessidades de capacitação dos gerentes de sistemas e serviços de saúde, está configurado nas considerações finais desta tese. Os resultados dessa tese oferecem subsídios para formulação de conteúdo programático que fomentem as necessidades de profissionalização da gestão na saúde. O estudo dessas situações, no campo prático, aponta perspectivas positivas com a busca de aperfeiçoamento de programa de capacitação de gestão de saúde e, por conseguinte representa um investimento importante para a melhoria da assistência à saúde da população.