955 resultados para Intensidade do vento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo o levantamento e análise de fatores intervenientes na capacidade de processamento de veículos em cabines de praças de pedágio com o recolhimento manual de tarifas. Buscando o entendimento de como estes fatores interferem nos tempos de atendimento nas cabines foi realizada uma análise estatística e posterior modelagem, que utilizou redes neurais artificiais. Redes neurais artificiais são úteis no entendimento de problemas com alto grau de complexidade, que agregam diversas variáveis de entrada com relações não-lineares entre si. As variáveis de entrada escolhidas para a modelagem foram forma de pagamento, intensidade de fluxo, valor das tarifas e classes de veículos. A variável de saída foi o tempo de atendimento nas cabines de cobrança de pedágios. Foram obtidos três modelos que buscaram refletir a variação dos tempos de atendimento para um mesmo conjunto de dados de entrada: Modelo de Tempos Mínimos de Atendimento; Modelo de 85° Percentil de Tempos de Atendimento, e; Modelo de Tempos Máximos de Atendimento. As análises de sensibilidade dos modelos indicaram que tempos de atendimento são fortemente influenciados pelo fluxo de veículos nas praças. Quanto mais intenso o fluxo de veículos, tempos mínimos de atendimento tendem a sofrer leve aumento, indicando pequena perda de rendimento do processo. Perda de rendimento pode ser resultado de (i) necessidade de digitação das placas de licença dos veículos no sistema operacional das praças-dificuldade de visualização das mesmas em situação de filas, e (ii) desgaste físico dos arrecadadores. O desgaste físico dos arrecadadores também se apresenta como provável causa para o aumento de tempos mínimos de atendimento para fluxos altos. Quanto mais intenso o fluxo de veículos, menores são os tempos máximos de atendimento. Quanto maior o fluxo de veículos nas praças, as modelagens indicam uma maior estabilidade do sistema com relação ao processamento de veículos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação é um estudo de caso exploratório sobre a atuação do Departamento de Coordenação e Governança das Empresas Estatais (DEST), vinculado à Secretaria-Executiva do Ministério do Planejamento, Orçamento e Gestão, na análise e na aprovação das propostas de participação nos lucros ou resultados (PLR) dos empregados das empresas estatais em que a União é acionista majoritária. Quatro empresas estatais que apresentaram propostas de PLR para o exercício de 2008 foram selecionadas qualitativamente. As informações coletadas a partir das propostas das empresas, de documentos oficiais do DEST se manifestando sobre o assunto, do marco legal existente e das entrevistas com representantes do órgão foram analisadas criticamente com base na teoria da agência, da literatura sobre mensuração de desempenho no setor público, das reformas administrativas no Brasil e dos pressupostos do novo institucionalismo. Com isso, foi possível: (i) analisar o DEST e o marco legal da PLR enquanto as instituições intermediando o processo entre as propostas e as aprovações; (ii) caracterizar as preferências do DEST em relação aos programas de PLR; (iii) caracterizar as propostas de PLR das empresas estatais; (iv) caracterizar os resultados que as instituições em consideração estão produzindo; (v) analisar os fatores limitantes e/ou facilitadores para o funcionamento das instituições; e (vi) levantar as percepções de ex- e atuais envolvidos no processo de análise e aprovação das propostas no DEST acerca da PLR nas empresas estatais enquanto instrumento de incentivo à produtividade. Como resultado, verificou-se (i) que as aprovações do DEST refletem apenas parcialmente as preferências do órgão com relação ao formato dos programas e (ii) que a atuação do DEST varia de intensidade entre os eixos que compõem os programas (seleção de indicadores, estabelecimento de metas, definição do montante e forma de sua distribuição).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo foi avaliar e comparar in vitro o desempenho dos fotoativadores Apollo® 95E /DenMed Technologies, com luz xênon (arco de plasma - PAC), e o Curing Light® XL 3000 /3M-Unitek, com luz halógena (convencional - QTH), comparando-se, desta forma, um fotoativador de alta intensidade de luz (PAC) com um convencional (QTH). A efetividade dos aparelhos foi verificada pelo grau de polimerização apresentado pela resina composta (Transbond™XT/3MUnitek), avaliado em espectrofotometria por infravermelho e pela análise de microdureza Knoop. Os tempos de ativação para a fonte PAC foram um, dois e três segundos e, para a fonte QTH, foram 10, 20 e 30 segundos, buscando-se avaliar a equivalência, ou não, dos diferentes tempos das diferentes unidades fotoativadoras. Foram usadas matrizes metálicas circulares, que receberam a resina para posterior polimerização. Para cada tempo de ativação, para cada aparelho e para cada teste, foi fotoativada a resina composta de cinco corpos-de-prova. Foi avaliada, também, a temperatura no extremo distal do condutor de luz de cada aparelho, nos seus respectivos tempos predeterminados, colocando-se justaposto, à ponta do fotoativador, o sensor do dispositivo de aferição Sekundenthermometer/GTH 1160 – Phywe. Os resultados obtidos foram submetidos ao teste não-paramétrico Kolmogorov-Smirnov, à Análise de Variância (ANOVA) e ao teste de comparações múltiplas de Tukey. Os resultados da espectrofotometria apontaram diferença estatística significativa entre os grupos estudados. O grupo QTH alcançou as maiores médias e diferiu do grupo PAC (p=0,01). O ensaio de microdureza Knoop também apresentou resultados que apontaram a existência de diferença estatística significativa entre os grupos estudados, tendo o grupo QTH alcançado as maiores médias (p=0,01). A avaliação da temperatura igualmente apresentou diferença estatística significativa entre os grupos estudados (p=0,01), sendo que o grupo QTH atingiu as maiores médias. Com base na metodologia empregada e na análise dos dados obtidos no presente estudo, pode-se concluir que o grau de polimerização da resina composta e a temperatura no extremo distal do condutor de luz apresentaram diferença estatística significativa com o uso das unidades fotoativadoras Apollo® 95E (xênon) e Curing Light® XL 3000 (halógena) nos respectivos tempos predeterminados (p=0,01), ficando sempre, com as maiores médias, o aparelho convencional com luz halógena.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral deste trabalho é desenvolver estudos relacionados à dispersão de poluentes, considerando a queima de carvão para geração de energia nas Usinas Termoelétricas de Charqueadas e São Jerônimo. O período de estudo foi do dia 17 a 23 de junho de 2003. Neste período houve a passagem de um sistema frontal. Sendo possível avaliar a dispersão dos poluentes em condições pré-frontal, frontal e pós-frontal. Para simular o comportamento dos poluentes neste período, foi utilizada uma subrotina de dispersão acoplada ao modelo RAMS (Regional Atmospheric Modeling System). Os resultados mostraram que nos dias classificados como pré-frontal e pós-frontal as concentrações do material particulado, dióxido de enxofre e do óxido de nitrogênio, atingiram seus valores máximos, pelo fato da umidade relativa do ar estar bastante baixa em torno de 60%, pressão atmosférica da ordem de 1021 hPa e a intensidade dos ventos fraca. No dia classificado como frontal, as concentrações estavam praticamente nulas, devido à passagem do sistema frontal que causou a queda na pressão atmosférica, aumento da umidade relativa e também pelo fato da ocorrência de precipitação atmosférica neste dia. As comparações dos resultados simulados, com os dados observados na estação de qualidade do ar mostraram-se satisfatórios. Com exceção do dia 22 de junho, que apresentou uma diferença da ordem de 90%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo objetivou verificar o efeito de diferentes níveis de desfolhação sobre a estrutura espacial da pastagem natural da Depressão Central do RS. Além dos efeitos impostos por diferentes níveis de oferta de forragem fixos ao longo do ano (8%, 12% e 16%) e de alterações de oferta na primavera e no resto do ano (8-12%, 12-8% e 16-12%), onde o primeiro número refere-se à oferta na primavera e o segundo relativo às demais estações do ano, também avaliou-se o efeito do relevo. A proporção de estratos inferior e superior, a freqüência de plantas pastejadas e a circunferência das touceiras, no estrato superior, foram afetados tanto pelos tratamentos de oferta como pelo relevo. Maior proporção de estrato superior foi encontrado em ofertas mais elevadas, mas, este efeito foi mais pronunciado na condição de topo e de encosta. A alteração de oferta que propiciou diminuição na oferta na primavera concorreu para uma proporção de estrato superior menor e com touceiras de menor circunferência, em relação à manutenção de oferta fixa em 12%, conseqüência da maior intensidade de pastejo do estrato superior durante a primavera, na condição de topo. A composição florística foi mais dependente da condição de relevo, embora também afetado pelo nível de oferta. Conclui-se que a estrutura horizontal (proporção de estratos) e vertical (altura de touceiras), bem como a composição das mesmas, são variáveis que devem ser consideradas quando se analisam os efeitos de diferentes níveis de oferta de forragem sobre a produção animal em campo natural característico da região.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A motivação para este estudo nasceu de uma avaliação inicial, ocorrida durante a obtenção dos meus créditos em Marketing, segundo a qual, na bibliografia disponível, existiriam poucos trabalhos que tratassem das técnicas e métodos de gestão mercadológica, aplicáveis a indústrias não seriadas. Tendo desenvolvido carreira em indústrias fabricantes de bens de capital, pude assistir a várias "ondas" de filosofias, processos e tecnologias, as quais, freqüentemente, foram ou ainda são acompanhadas por pressões pela análise, para eventual adoção, destas "modas", o que, quando não levava à tomada de atitudes mal pensadas, tinha como contrapartida o desperdício de tempo dos envolvidos. Com o passar do tempo, isto trazia como conseqüência o desenvolvimento de uma cultura de rejeição a tudo que vinha de fora, pois os envolvidos já estavam tão cansados de analisar novidades, as quais raramente eram implementadas, que dificilmente concordavam em investir mais tempo neste tipo de atividade, preferindo seguir as receitas caseiras. Na área mercadológica, que não se constitui em exceção à regra, freqüentemente surgem novos modismos, e o fenômeno acima descrito ocorre com renovada intensidade, pelas características peculiares do setor: as vendas para cada cliente são muito espaçadas no tempo, em termos de equipamentos, e no caso dos serviços, embora haja uma maior freqüência nas vendas, o centro de compras envolvido é, via de regra, diverso daquele empenhado na compra de novos equipamentos, o que torna a administração dos relacionamentos com os clientes bastante complexa. No caso específico das técnicas e metodologias, publicadas na área de Marketing, pode-se perceber que a imensa maioria foi desenhada para ser aplicada na transação final com o consumidor, ou nos estágios finais da cadeia produtiva, entre os fornecedores de material produtivo para produtores de bens de consumo e os próprios, e/ou entre os produtores de bens de consumo e seus respectivos canais. No entanto, isto não impede que se tente vender aos fabricantes de bens de capital versões, mais ou menos modificadas, das técnicas e sistemas "da moda", o que nos remete à situação, citada anteriormente, de ter de escolher

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata das dificuldades de formação do campo artístico no Rio Grande do Sul, Brasil, desde o final do século XIX até meados do século XX, articulando perspectivas econômicas e sociais com ações pontuais de indivíduos e de grupos que tiveram participação na construção de uma história regional, segmentada e descontínua, que ainda não foi incorporada a uma narrativa geral da arte brasileira. A pesquisa, que, além de envolver levantamento empírico e historiográfico, também inclui análise formal de obras produzidas em diferentes períodos, procurou estabelecer nexos entre fenômenos que, até o presente momento, tinham sido tratados de maneira isolada. Independentemente do potencial artístico, da capacidade intelectual, ou da disposição para trabalhar em prol da coletividade, todos os indivíduos estudados se defrontaram com resistências e desafios, que variaram em grau e intensidade, por parte do conjunto da sociedade gaúcha, e o reconhecimento social só aconteceu depois de encontrarem aceitação em centros artísticos mais tradicionais. Assim, a despeito da existência de artistas e de agentes culturais bastante ativos, o campo artístico, propriamente dito, não encontrou formas concretas de existência no Rio Grande do Sul, pelo menos até o final dos anos de 1950, pela ausência de outros elementos necessários para sua estruturação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho analisa as transações entre empresa fabricante de software e empresa usuária de software sob a ótica da empresa fabricante. A abordagem da transação leva em consideração os seguintes fatores: estrutura de governança transacional, recursos humanos necessários à empresa fabricante e qualidade na transação buscada pela empresa fabricante. O modelo ajuda a explicar a dinâmica da transação e se propõe a auxiliar agentes a decidir e negociar temas polêmicos como tipos de software envolvidos e respectivas licenças, intensidade de participação da empresa usuária no processo de elaboração e parametrização do software, titularidade e grau de especificidade dos investimentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho utiliza a metodologia por cenários desenvolvido pela GBN para discernir 4 possíveis futuros da telefonia móvel no Brasil, que possam guiar as operadoras sobre a viabilidade ou não de investir em redes de 3G. Os resultados demonstram que haverá demanda no mercado, cuja intensidade irá depender do desenvolvimento da tecnologia e da economia nacional. Assim, a estratégia de menor risco é o de investir em infraestrutura e serviços em centros urbanos densos e monitorar os sinais de aviso que possam indicar com mais clareza qual dos cenários poderá desenrolar-se no futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo central deste trabalho é investigar a possível relação positiva entre a lealdade e a lucratividade do cliente em um ambiente de negócio pouco competitivo onde a lealdade comportamental poderia não estar associada à lealdade atitudinal, não se configurando portanto, uma situação de lealdade plena. Os dados utilizados para a realização da pesquisa foram cedidos pela empresa adquirente Redecard. Hoje no Brasil ela é a única empresa que realiza a captura das transações de cartões de crédito da bandeira MasterCard. A concorrência se manifesta indireta através de empresas que capturam transações de crédito de outras bandeiras como Visa e American Express, assinalando ser este um mercado de baixa concorrência. A análise foi realizada em dois momentos para cobrir situações de ambiente competitivo distintas: no ano 2000, momento de investimento da Redecard para consolidação do cartão de crédito como meio de pagamento nos estabelecimentos comerciais e no ano 2005, já com o mercado e a cultura de cartões de crédito estabelecido. Além da análise em momentos distintos, o estudo cobriu diferentes sub-ramos de negócios de distintas características. Como resultado do estudo verificou-se que a relação entre lealdade e lucratividade de clientes na relação adquirente e estabelecimento comercial é muito pequena podendo ser praticamente inexistente. Além da pouca intensidade, quando comparadas às demais fontes de variação, esta relação parece ser muito dependente do contexto competitivo, como demonstraram as diferenças encontradas entre os sub-ramos e as diferenças entre os anos 2005 e 2000.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Este estudo teve como objetivo avaliar a influência do laser de baixa energia na prevenção ou redução de mucosite oral em crianças e adolescentes. Pacientes e Métodos: Este trabalho foi um ensaio clínico randomizado cego. Pacientes de três a 18 anos tratados com quimioterapia ou transplante de células progenitoras hematopoéticas entre maio de 2003 e fevereiro de 2005 foram incluídos no estudo. Nos pacientes do grupo intervenção foi aplicado laser na mucosa oral por cinco dias, a partir do primeiro dia da quimioterapia. As avaliações orais foram realizadas no primeiro dia, no oitavo e no 15º dia após o início do tratamento, utilizando-se a escala para avaliação do grau de mucosite oral recomendada pela Organização Mundial de Saúde de 1998. As avaliações foram realizadas pelo mesmo examinador, sem envolvimento na randomização. Resultados: Sessenta pacientes foram incluídos no estudo, 39 (65%) foram meninos, 35 (58%) tinham diagnóstico de leucemias e linfomas e 25 (42%) tinham diagnóstico de tumores sólidos. A média de idade foi 8,7 ± 4,3 anos. Vinte e nove pacientes foram randomizados para receber a intervenção e 31 para o grupo controle. Nenhum paciente teve evidência de mucosite oral na primeira avaliação. Na segunda avaliação, no dia oito, 20 pacientes (36%) desenvolveram mucosite, 13 deles eram do grupo que recebeu laser e sete do grupo controle. Na terceira avaliação, no dia 15, 24 (41%) pacientes desenvolveram mucosite oral, 13 deles foram do grupo laser e 11 do grupo controle. Não houve diferença estatisticamente significativa entre os grupos para o grau de mucosite oral no dia oito (P=0,234), nem no dia 15 (P=0,208). Conclusão: O uso do laser de baixa intensidade não mostrou evidências suficientes que possam justificar a sua recomendação como medida preventiva para mucosite oral em crianças e adolescentes submetidas à quimioterapia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Pirose e regurgitação são manifestações da Doença do Refluxo Gastresofágico (DRGE) que ocorrem freqüentemente no terceiro trimestre da gravidez, porém seu impacto na qualidade de vida de gestantes é pouco conhecido. Objetivos: 1. Mensurar a qualidade de vida em gestantes no terceiro trimestre da gravidez com Pirose e Regurgitação; 2. Avaliar a relação entre Pirose e Regurgitação e a dieta. Pacientes e Métodos: Gestantes no terceiro trimestre acompanhadas ambulatorialmente foram entrevistadas para colher dados referentes à história obstétrica, freqüência, intensidade e passado de P e R, qualidade de vida (mensurada a partir do questionário genérico SF-36), ingestão alimentar (avaliada por recordatório de 24h) e medidas antropométricas; Resultados: Foram estudadas consecutivamente 82 gestantes: 62 com pirose e/ou regurgitação e 20 assintomáticas. Pirose foi relatada por 62 (76%) gestantes e regurgitação por 58 (71%). A idade gestacional média foi 33,8±3,7 semanas, 35 (43%) apresentavam história familiar positiva de pirose e/ou regurgitação e 57 (70%) não apresentavam tais sintomas fora da gravidez. Houve redução estatisticamente significativa na qualidade de vida das gestantes sintomáticas nos seguintes domínios: Para pirose, em Limitação Física e Aspectos Sociais; para regurgitação, em Limitação Física, Aspectos Sociais, Aspectos Emocionais e Dor. Houve concordância entre presença de pirose em gestações passadas e a atual. Gestantes com pirose apresentaram-se significativamente com maior peso corporal. Ácidos graxos poli e monoinsaturados, cafeína, ácido ascórbico e sulfato ferroso foram significativamente associados com pirose e/ou regurgitação. Conclusões: 1.Pirose e / ou regurgitação diminuíram a qualidade de vida em gestantes no terceiro trimestre; 2. ácidos graxos, cafeína, ácido ascórbico e sulfato ferroso estiveram associados com pirose e/ou regurgitação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundamentação: A terapia cognitivo-comportamental em grupo (TCCG) e os inibidores da recaptação da serotonina (IRS) apresentam eficácia comprovada em reduzir os sintomas do transtorno obsessivo-compulsivo (TOC). Ainda é uma questão em aberto qual destas modalidades de tratamento é a mais efetiva. Este estudo foi conduzido para avaliar a eficácia da TCCG em relação à da sertralina na redução dos sintomas do TOC. Metodologia: Cinqüenta e seis pacientes com diagnóstico de TOC, de acordo com os critérios do DSM-IV, participaram do ensaio clínico randomizado: 28 recebendo 100 mg/dia de sertralina e 28 realizando TCC em grupo por 12 semanas. A eficácia dos tratamentos foi avaliada pela redução nos escores das escalas Yale-Brown Obsessive Compulsive Scale (Y-BOCS) e Clinical Global Impression (CGI). Resultados: Ambos os tratamentos foram efetivos, havendo uma tendência de superioridade da TCCG em relação à sertralina na redução dos sintomas obsessivo-compulsivos (F= 3,1; GL= 1; p= 0,083). Os pacientes tratados com TCCG obtiveram uma redução percentual média dos sintomas de 43%, enquanto os tratados com sertralina obtiveram somente 28% de redução (p= 0,039). A TCCG também foi significativamente mais eficaz na redução na intensidade das compulsões (p= 0,030). Além disso, oito pacientes (32%) tratados com TCCG apresentaram remissão completa de sintomas do TOC (Y-BOCS ≤8) contra apenas 1 (4%) entre os que receberam sertralina (p= 0,023).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo das indústrias de criação representam uma rica contribuição para a abordagem da estratégia como prática. Por se tratar de um ramo industrial simbólico-intensivo, as organizações nele inseridas adotam estratégias difusas que buscam conciliar lógicas tanto econômicas quanto não-econômicas, pois estas últimas são aquelas que garantem sua legitimidade e sobrevivência no campo. O universo simbólico, por sua vez, é volátil e cujo controle, por parte das organizações, é virtualmente impossível. Neste tipo de indústria, a abordagem sociológica em estratégia parece mais adequada para se compreender as ações dos agentes do campo organizacional em seu todo, não somente em seus aspectos instrumentais. Esta dissertação aborda os discursos e práticas imersos no contexto social do ramo editorial, por meio de um estudo longitudinal de dados secundários que adota uma versão adaptada para a estratégia do modelo discursivo de institucionalização como estrutura de análise. O objetivo principal da pesquisa era compreender como se articulam discursos e práticas num campo onde as regras de legitimação seguem uma lógica anti-econômica e onde os resultados econômicos nem sempre são o objetivo único das organizações. Adotou-se o conceito de orientação estratégica como a predisposição de uma organização para adotar uma ou outra estratégia, revelada por meio dos discursos e práticas organizacionais indicativos da interpretação reflexiva dada pelas organizações a seu contexto ambiental. Com base em dados coletados durante cerca de 3 anos pelo site de clipping de notícias do setor editorial Publishnews, foi utilizada uma metodologia de análise de conteúdo para interpretar o contexto ambiental, em suas facetas institucional e técnica, e as orientações estratégicas das editoras brasileiras, reveladas a partir dos textos e ações públicas presentes nas notícias. Em face das análises realizadas, constataram-se os resultados a seguir. Primeiramente, foi possível a descrição tanto do contexto ambiental como das orientações estratégicas por meio dos discursos e práticas. Do ponto de vista teórico, confirmou-se que os discursos são parte integral das orientações estratégicas das editoras, se articulando com as práticas, mesmo com aparentes dissonâncias entre elas, que se mostraram na verdade dissimuladas. Os discursos, como parte da estratégia, se apresentavam mais relevantes e mais utilizados quanto mais simbólicos fossem os objetivos a serem alcançados. Também se comprovou que, neste tipo de ramo, as orientações estratégicas dialogam mais com o ambiente institucional do que com o ambiente técnico, pois é no primeiro que podem ser obtidas as diferenciações de mercado, por meio de sub-produtos como legitimidade, mistificação ou consagração. As editoras também se orientam estrategicamente com mais intensidade sobre os chamados gatekeepers do que sobre seu mercado consumidor final, pois os primeiros é que garantem, ao gerar sub-produtos, a atração dos recursos mais raros (autores e recursos humanos), fundamentais para a sobrevivência num ramo simbólico-intensivo. Do ponto de vista prático, o uso da ferramenta metodológica proposta revelou que a dicotomia estratégica entre pequenas e grandes editoras é uma forma simplista de ver grupos estratégicos, ignorando estratagemas fundamentais que fogem à lógica econômica. A análise também mostrou traços de uma visão capitalista arcaica dominante no mercado nacional, arraigada em boa parte das editoras, ressaltada pelo excesso de demandas e delegação de responsabilidades ao Governo Federal, e da mistificação e valorização excessiva do universo livreiro. Editoras cujas orientações se mostravam opostas a estas obtiveram sucesso em criar novos mercados. Finalmente a dissertação coloca em dúvida os dados econômicos disponíveis sobre o mercado, freqüentemente usados como justificativa para políticas e demandas públicas, mas que parecem não se sustentar de forma alguma na realidade.