48 resultados para Desempenho produtivo - rã
Resumo:
Nesta tese, analisamos um corpus formado por questões de Língua Portuguesa do ENEM de 2010, 2011, 2012 e 2013, para observação de como gramática e leitura estão implicadas na compreensão do texto. Consideramos a hipótese de que componentes gramaticais são geralmente negligenciados em descrições e em estudos do processamento da leitura, porque alunos demonstram menor desempenho em questões que implicam a gramática. Com fundamentação em Azeredo (2013a/b, 2007a/b, 2004), Kleiman (2013, 2006, 2004a/b), Marcuschi (2008, 2006, 2003), Travaglia (2013, 2009, 2004, 2002) e em orientações oficiais para o ensino (PCN, PCNLP, OCNEM), descrevemos como conteúdos gramaticais são mobilizados na produção de sentidos pela leitura. A Matriz de Habilidades do SAEB é empregada como referencial para explicitação de habilidades, na análise das questões do ENEM, que são aplicadas em avaliações do Ensino Médio de duas turmas, resultando em percentuais de aproveitamento. Esses resultados constituem índices do nível de desenvolvimento da leitura desses alunos. Propomos, então, uma nova descrição de procedimentos em questões de gramática, considerando noções de compreensão, reconhecimento e aplicação gramatical
Resumo:
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.
Resumo:
A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.
Resumo:
O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.
Resumo:
Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.
Resumo:
As inundações são fenômenos naturais que ocorrem devido às chuvas de grande magnitude, agravadas nas áreas urbanas pela impermeabilização do solo e ineficiência dos sistemas de drenagem. Os telhados verdes surgem como uma medida compensatória estrutural que pode reter parte da água precipitada, adiando o pico de escoamento. O objetivo deste trabalho foi de desenvolver uma combinação de solo e condicionadores para telhado verde, promovam um aumento relevante na capacidade de retenção hídrica e um maior adiamento do pico de escoamento das águas pluviais. Este estudo foi dividido em duas etapas. Na Etapa 1, foram analisadas, em colunas de percolação, três condicionadores nas seguintes concentrações: Gel retentor Stockosorb (2; 4; 6 g/dm3), Fertilizante de liberação lenta Osmocote (4,7; 7,1; 9,0 g/dm3) e Zeólita (30; 50; 70 g/dm3), em três eventos (regas) consecutivos de chuva simulada na intensidade de 57 mm/h. A avaliação das concentrações mais adequadas dentre as testadas para cada condicionante foi baseada nas análises referentes à retenção hídrica (altura do meio após a rega; tempo de adiamento do escoamento; mm retidos; intensidade da água percolada em mm/min) e à qualidade da água percolada (pH, oxigênio dissolvido, turbidez e sólidos). Na Etapa 2, foi avaliada, em vasos, a influência da presença de três espécies de plantas (Arachis pintoi; Raphanus sativus; Lavandula angustifolia) em dois tipos de meio: solo sem condicionadores; solo com condicionadores nas melhores concentrações indicadas na Etapa 1, sendo simulada apenas um evento de chuva de 57 mm/h. Foram analisados parâmetros biológicos (germinação; plantas sobreviventes; comprimento do caule e da raiz; pesos da biomassa do caule e da raiz); retenção hídrica (altura do meio após a rega; tempo de adiamento do escoamento; mm retidos; intensidade da água percolada em mm/min); qualidade da água percolada (pH; oxigênio dissolvido; turbidez; sólidos; nitrato; amônia; fósforo total). Os resultados da Etapa 1 indicaram que o gel promoveu de forma significativa um aumento na retenção hídrica, e adiou o início da percolação de água, além de promover ligeira elevação do pH na água percolada. A adição de zeólita resultou em um aumento significativo da retenção hídrica, porém tal aumento não é vantajoso visto que este representa um custo adicional que poderia ser reduzido com o aumento da proporção do gel na coluna. A adição de fertilizantes não promoveu mudanças na qualidade da água percolada. Na Etapa 2, somente o efeito da presença de A. pintoi (maior produção de biomassa de raiz e caule) e R. sativus foram avaliadas. A presença dos condicionantes no solo proporcionou um desempenho significativamente superior em relação a retenção hídrica (altura do substrato e adiamento do pico de chuva) e qualidade da água percolada (pH e turbidez) quando comparados aos testes realizados na presença somente de solo. O fertilizante influenciou nas altas concentrações dos nutrientes (nitrogênio e fósforo) na água percolado nos resultados. A presença do gel no substrato, resultou numa capacidade superior de retenção de hídrica, e consequentemente no adiamento do pico de intensidade de chuva. Sendo assim, recomenda-se a aplicação do gel em telhados verdes para futuros estudos em ambientes externos.
Resumo:
O objetivo deste trabalho é analisar as práticas de divulgação do EBITDA como métrica de desempenho operacional no gerenciamento de segmentos, no período de 2010 a 2012. Trata-se de um estudo descritivo com abordagem qualitativa e quantitativa dos dados realizada por meio da Análise de Conteúdo das Notas Explicativas e do Relatório da Administração. A amostra objetiva é composta por 260 empresas com situação ativa na BM&FBOVESPA em 2013 e distribuídas entre 20 setores da economia. O ano inicial de pesquisa foi determinado pelo fato de ser o primeiro ano da obrigatoriedade de divulgação das Informações por Segmento conforme o pronunciamento técnico do CPC 22. Inicialmente, foram analisadas 780 notas explicativas. Em seguida, a partir da investigação das divulgações das Informações por Segmento pelo CPC 22 em notas explicativas a amostra de trabalho foi constituída por 185; 198 e 203 entidades, respectivamente, em 2010, 2011 e 2012. Deste modo, foram observados nesses três anos 586 relatórios da administração. Os resultados desta pesquisa demonstram que as práticas de divulgação do EBITDA com métrica de desempenho operacional no gerenciamento de Segmentos possui uma representatividade de evidenciação entre os relatórios financeiros de 18%; 16% e 17% respectivamente em 2010, 2011 e 2012. O relatório financeiro com maior participação na divulgação do EBITDA no gerenciamento de negócios foi o Relatório da Administração com 11% em 2010, 10% em 2011 e 11% em 2012. Conclui-se que, em média, 83% das companhias abertas brasileiras não utilizaram o EBITDA como métrica de desempenho operacional no gerenciamento dos segmentos no período de 2010 a 2012.
Resumo:
O presente trabalho realiza uma análise econômica dos possíveis impactos gerados na economia brasileira pelo Programa Nacional de Produção e Uso do Biodiesel (PNPB) e pela Lei N 11.097/2005, que define percentuais mínimos obrigatórios de adição de biodiesel ao óleo diesel. Para atingir tal objetivo, apresenta-se uma avaliação econômica por meio de um método de investigação conhecido como Matriz de Análise de Política (MAP). Este instrumental permite uma avaliação em termos de competitividade e eficiência do sistema produtivo de biodiesel com base em um estudo comparativo da cadeia produtiva de biodiesel selecionando duas matérias-primas a soja e a mamona. Neste sentido, inicialmente investiga-se a cadeia produtiva do biodiesel no Brasil para diagnosticar as vantagens no que tange a escala de produção, a escolha de matérias-primas, bem como o custo de oportunidade, método de comercialização e distribuição e também a questão tributária. Por fim são apresentados os resultados da pesquisa evidenciando que os dois sistemas são rentáveis, competitivos e eficientes, no entanto, maiores ganhos, em termos de uso dos recursos disponíveis e de custos de produção podem ser obtidos no sistema de produção do biodiesel a partir da soja. O lucro maior apresentado para a produção de biodiesel da soja permite confirmar a preferência por este sistema de produção dada sua maior rentabilidade.
Resumo:
A presente pesquisa objetiva verificar a contribuição da tecnologia da informação na previsão de indicadores de desempenho da Empresa Alfa. Para a realização deste estudo, foi realizado um estudo de caso único a fim de aprofundar na pesquisa de forma exploratória e descritiva. As técnicas utilizadas para tal foram análise documental e entrevista, que deram suporte à pesquisa quantitativa atendendo ao objetivo proposto no estudo e na fundamentação teórica. A pesquisa teve como base principal os resultados dos indicadores de desempenho dos anos de 2012 e 2013 descritos no planejamento estratégico referente ao ano de 2013. Através desses resultados foi possível prever os resultados dos indicadores para 2014 utilizando o software Weka e assim realizar as análises necessárias. Os principais achados demonstram que a Empresa Alfa precisará antecipar ações para maximizar seus resultados evitando que impactem negativamente na rentabilidade, além de ter a necessidade de manter uma base de dados sólida e estruturada que possa subsidiar previsões confiáveis e alimentar futuramente o programa a fim de realizar novas previsões. O resultado da pesquisa aponta que o sistema de informações Weka contribui para a previsão de resultados, podendo antecipar ações para que a organização possa otimizar suas tomadas de decisões, tornando-as mais eficientes e eficazes.
Resumo:
O objetivo deste estudo foi investigar os mecanismos de variabilidade da pressão arterial sistólica batimento-a-batimento através da análise espectral do componente de baixa frequência da variabilidade da pressão arterial sistólica, de medidas de velocidade da onda de pulso e de análise da pressão de incremento em idosos normotensos e hipertensos em tratamento anti-hipertensivo. Adicionalmente, investigamos a associação da variabilidade da pressão arterial com a espessura médio-intimal carotídea. Também investigamos a associação entre variabilidade da pressão arterial batimento-a-batimento e da frequência cardíaca com desempenho cognitivo. A pressão arterial foi medida continuamente através de fotopletismografia em posição supina e semi-ereta passiva. A variabilidade da pressão arterial foi estimada pelo desvio padrão das medidas batimento-a-batimento. Medidas de velocidade de onda de pulso, de pressão de incremento e ultrassonografia das artérias carótidas para medidas da espessura médio-intimal foram realizadas. O componente de baixa frequência da variabilidade da pressão arterial sistólica em posição supina e semi-ereta apresentou uma associação positiva independente coma variabilidade nos modelos de regressão linear múltipla ajustado pela velocidade de onda de pulso ou pela pressão de incremento.O componente de baixa frequência do barorreflexo em posição supina apresentou uma associação negativa independente com a variabilidade da pressão arterial sistólica e nos mesmos modelos. Não foi demonstrada associação entre a variabilidade da pressão arterial sistólica com espessura médio-intimal das artérias carótidas. Não foi demonstrada associação da variabilidade da pressão arterial sistólica batimento-a-batimento ou da frequência cardíaca com desempenho cognitivo global. Foi demonstrada associação positiva e independente do componente de baixa frequência do espectro de variabilidade da pressão arterial e da frequência cardíaca com domínios cognitivos relacionados ao lobo frontal. Em conclusão, a modulação simpática do tono vascular arterial, a função vascular miogênica e a desregulação do barorreflexo correlacionam-se com a variabilidade da pressão arterial batimento-a-batimento, o que não foi observado em relação `a rigidez arterial,pressão de incremento eespessura médio-intimal carotídea. A variabilidade da pressão arterial sistólica e da frequência cardíaca não apresentaram correlação com o desempenho cognitivo global, mas apresentaram associação positiva e independente com escores de função executiva.
Resumo:
Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição.
Resumo:
Sabe-se que um estilo de vida sedentário e uma condição aeróbica baixa são associados com uma maior chance de desenvolvimento de doenças cardiovasculares e um maior risco de mortalidade por todas as causas. Contudo, é possível que outros indicadores de aptidão física possam ter significado clínico prognóstico. Originalmente proposto em 1999, o teste de sentar-levantar (TSL) é, simples de executar e possui comprovada reprodutibilidade inter e intra-avaliador. O avaliado inicia o teste com o escore máximo de 5 pontos para cada uma das ações de sentar e levantar, sendo subtraído do mesmo, um ponto para cada apoio extra utilizado (mão, braço e joelho) e meio ponto para cada desequilíbrio corporal perceptível. A pontuação do TSL escore, variando de 0 a 10, é realizada pela soma das ações de sentar e levantar. Considerando o potencial papel da flexibilidade para uma execução mais eficiente de gestos motores, não é surpreendente que o desempenho sobre TSL possa ser influenciado por essa valência. O objetivo desta dissertação foi analisar a relação entre o resultado do TSL e a mortalidade por todas as causas e a flexibilidade. No primeiro estudo, 2002 indivíduos entre 51 e 80 anos (68% homens), realizaram o TSL e os resultados foram estratificados em quatro faixas: 0/3; 3,5/5,5, 6/7,5 and 8/10. Baixos resultados no TSL escore foram associados com um maior risco de mortalidade (p<0,001). Uma tendência contínua de maior sobrevivência se refletiu no ajuste multivariado idade, sexo, índice de massa corporal em um razão de risco de 5,44 [95%IC=3,19,5], 3,44 [95%IC=2,05,9] e 1,84 [95%IC=1,13,0] (p<0,001) dos menores para as maiores faixas de resultados do TSL. Cada aumento de um ponto no escore do TSL significou uma melhora de 21% na sobrevivência. Já o segundo estudo, contou com 3927 indivíduos (67,4% homens) que realizaram o TSL e o Flexiteste. O Flexiteste avalia a amplitude máxima passiva de 20 movimentos corporais. Para cada um dos movimentos, existem cinco escores possíveis, 0 a 4 em uma ordem de mobilidade crescente. A soma dos resultados dos 20 movimentos fornece uma pontuação de flexibilidade global denominada de Flexíndice (FLX). Os resultados do FLX foram estratificados em quartis (626, 2735, 3644 and 4577). Os valores do TSL em cada quartil diferiram entre si (p<0,001). Além disso, o escore do TSL e o FLX foram diretamente associados (r=0,296; p<0,001). Os indivíduos com um TSL escore zero são menos flexíveis para todos os 20 movimentos do Flexiteste do que aqueles com escore 10. Portanto, os dados da presente dissertação, indicam que: o resultado do TSL se mostrou um importante preditor de mortalidade por todas as causas para indivíduos entre 51-80 anos de idade e que indivíduos mais flexíveis tendem a ter maiores escores no TSL.
Resumo:
A Santa Casa de Angra dos Reis é uma Instituição Filantrópica inaugurada em 06 de janeiro de 1839. A Unidade passa por Intervenção Municipal, recomendada pelo Ministério Público, no intuito de garantir o restabelecimento adequado de seus serviços, a eficiência desejável e para resgatar a credibilidade e sustentabilidade do Hospital. Da motivação pelos projetos da nova gestão emergiu a necessidade de conhecer a situação do desempenho desta unidade hospitalar, em especial a Maternidade, ponto de partida do projeto. Este estudo é relevante para a institucionalização da avaliação da qualidade nesta Unidade Hospitalar, bem como condição primária para construção de planos de trabalho. O Programa Nacional de Avaliação dos Serviços de Saúde PNASS é uma proposta do Ministério da Saúde, e é visto como uma ferramenta de gestão para monitoramento e avaliação. O programa pode apontar diversas oportunidades de melhorias e auxiliar a tomada de decisão tornando-se adequado seu emprego no levantamento das informações necessárias para o conhecimento do cenário da Maternidade, como base para um futuro plano de ação. Este estudo tem por objetivo aplicar o programa de avaliação normativa proposto pelo PNASS na Maternidade da Santa Casa, a fim de identificar seu desempenho, como primeiro passo para a construção do plano estratégico de ação em busca do aprimoramento da qualidade em saúde neste setor. Como metodologia, é uma pesquisa quantitativa onde foram utilizados padrões de conformidade, questionários fechados direcionados aos usuários e trabalhadores da Maternidade, e análise de indicadores. Resultados: foram entrevistadas 35 mulheres e 47 profissionais de saúde, num total de 85% da amostra desejada; ficou evidente a necessidade de intervenção e implementação de mudanças na área de Gerenciamento de Risco; e melhorias quanto às condições de trabalho relacionadas à infraestrutura e equipamentos. Os indicadores de internação apontam a necessidade de revisão do número de leitos disponíveis; a taxa de parto cesáreo, 59%, é extremamente alta e muito acima do preconizados pela Organização Mundial de Saúde. Este estudo mostrou um resultado positivo quanto à satisfação das parturientes com o serviço prestado, embora existam áreas carentes de melhorias. Melhorias também são necessárias para o dimensionamento efetivo do quadro de profissionais para atendimento à demanda. A interrupção do lançamento de relatórios sobre atuais avaliações feitas pelo PNASS e a pouca divulgação do mesmo são questões levantadas por este estudo. Considera-se que a aplicação do PNASS na Maternidade da Santa Casa de Angra dos Reis proporcionou embasamento para a elaboração de uma oportuna matriz de intervenção.
Resumo:
Orientado pelo debate sobre a diferença, o presente estudo analisa questões de gênero e sexualidade relativas ao processo de constituição do currículo de Educação em Direitos Humanos, procurando identificar que significados deslizam, disputam hegemonia e ganham espaço e/ou são silenciados em textos voltados à Educação Básica, autodefinidos como relativos à Educação em Direitos Humanos reunidos em acervo pedagógico produzido pelo Núcleo de Educação Continuada (NEC). O NEC é um projeto de extensão da Faculdade de Educação da Baixada Fluminense, da Universidade do Estado do Rio de Janeiro, que atua há 15 anos com a proposta de articular ações de extensão, pesquisa e ensino com a temática dos direitos humanos, desenvolvendo projetos escolares em parceria com o poder público e instituições da sociedade civil. Este estudo se insere em uma abordagem pós-estruturalista, assumindo como referencial teórico as contribuições dos Estudos Culturais e Pós-Coloniais. Nele, o conceito de discurso desenvolvido por Chantal Mouffe e Ernesto Laclau (2000, 2004) é utilizado como categoria de análise para investigar a diferença como processo de produção discursiva e, na perspectiva da Educação em Direitos Humanos, discutir com base em Aura Helena Ramos (2011) a Educação em Direitos Humanos como eixo articulador da diferença. Apoia-se em Elizabeth Macedo (2007, 2011) para analisar o currículo como produção cultural e em Guacira Louro (2002, 2010) para pensar as questões relativas a gênero e sexualidade na Educação. As análises e conclusões, sempre provisórias e contingentes, indicam que o discurso dos textos curriculares que compõem o material empírico do estudo permite identificar a atenção em relação às diferenças de gênero e a invisibilização das diferenças em relação ao tema sexualidade, silenciamento que produz e sustenta o preconceito contra as homossexualidades.
Resumo:
Há um debate a respeito da competitividade dos produtos da indústria brasileira, tanto no que se refere a concorrência que estes enfrentam no mercado doméstico com as importações quanto no mercado externo. Alguns afirmam que a dificuldade do Brasil em expandir mais a sua participação no mercado internacional de produtos manufaturados está mais fortemente ligada a problemas do lado da oferta ineficiências produtivas e custos elevados do que à falta de demanda. Deste modo, ainda que não se pretendesse avaliar as causas do desempenho das exportações de manufaturas brasileiras, esta dissertação teve como objetivo fazer um mapeamento que permitisse identificar as fontes de crescimento das exportações brasileiras de produtos manufaturados na primeira década do século XXI através do modelo de Constant Market Share (CMS). Visto que o modelo decompõe em quatro parcelas as fontes de crescimento das exportações, este trabalho conferiu especial atenção a parcela denominada efeito competitividade. Foram ainda utilizados três indicadores como forma de verificar se os mesmos revelariam haver indícios de perda de competitividade nas exportações brasileiras de manufaturas. Dos resultados encontrados é possível concluir que o efeito competitividade contribuiu positivamente para o aumento das exportações brasileiras para o mundo em 1999-2002 e 2002-2005. Entretanto, a competitividade não se mostrou como fonte de crescimento das exportações brasileiras de manufaturados nos subperíodos 2005-2008, 2008-2011 e 2011-2012. Tal resultado condiz com a piora, na média, demonstrada pelos três indicadores de competitividade ao longo do tempo.