999 resultados para Comparações multiplas (Estatistica)
Resumo:
Esta pesquisa objetiva, através do aporte teórico da Antropologia Social, da Psicologia Social, da Administração e da Filosofia, fazer a leitura do cotidiano organizacional e dos rituais existentes em duas universidades, desnudando as suas culturas, estabelecendo, igualmente, comparações onde semelhanças e diferenças entre as mesmas possam ser traçadas. Ao elucidar as representações sociais construídas nestes micro-ambientes, procurou-se mostrar que fragmentação, diferenciação e integração cultural são perspectivas capazes de serem encontradas em um mesmo espaço organizacional, evidenciando que a cultura pode ter em seu cerne contradições, ambigüidades, convergências que longe de serem vistas como incompatíveis devem ser entendidas como complementares. O método etnográfico foi utilizado no desvendamento da cultura organizacional da Universidade Federal do Rio Grande do Sul - UFRGS, leiga e pública, e da Universidade do Vale do Rio dos Sinos - UNISINOS, confessional e particular, trazendo à tona as múltiplas significações presentes nesses contextos. Os resultados mostram que, no caso da UFRGS, "escassez de recursos" e "universidade de renome" são significações acerca da Universidade partilhadas por alunos e professores (fragmentação). Já a "dificuldade de conciliar estudo e trabalho" é uma significação sobre a Universidade restrita ao grupo de alunos e a "liberdade" é uma significação sobre a Universidade partilhada só pelo grupo de professores (diferenciação). Já a representação da Universidade sob a ótica da "deficiência" perpassa os três grupos de atores, quais sejam, professores, funcionários e alunos (representação integradora). Na UNISINOS, a "boa infra-estrutura e recursos" é uma significação sobre a Universidade partilhada por alunos e professores (fragmentação). A significação de "avanços que ainda não se consolidadaram" é uma significação sobre a Universidade partilhada só pelo grupo de professores e "mensalidades altas" é uma significação sobre a Universidade partilhada só pelo grupo de alunos (diferenciação). A representação da Universidade sob a ótica da "ordem" perpassa os três grupos de atores (integração). Na comparação da UFRGS com a UNISINOS, a única significação comum é a dos alunos com relação aos professores, estes últimos vistos ora como "competentes" e ora como "despreparados", nas duas instituições. A confluência de múltiplos saberes permitiu a identificação de múltiplas perspectivas.
Resumo:
Este trabalho tem por objetivo mapear em parte o mercado de arte do Rio Grande do Sul nas décadas de 60, 70 e 80, através do estudo mais particular dos Leilões de Artes e Antigüidades acontecidos na cidade de Porto Alegre no período citado. A partir do mercado que se estrutura, estudamos esta forma de intermediação entre a obra e o público: o leilão - nos seus aspectos teóricos, históricos e sociológicos. O objeto central da pesquisa é a averiguação do papel de legitimação e valorização da arte nos leilões. O trabalho apresenta-se estruturado em três capítulos, onde foram analisados primeiramente os aspectos teóricos pertinentes ao objeto da pesquisa, através de uma revisão de bibliografia nas áreas de sociologia da arte e filosofia. Num segundo capítulo, esboçamos o panorama do mercado de arte no Rio Grande do Sul nas décadas de 60, 70 e 80, enfatizando a origem dos artistas, estilos e técnicas mais empregadas. No último capítulo, escrevemos a história dos leilões, destacando o objeto central da pesquisa: como se dão os processos de valorização e legitimação das obras de arte, quando negociadas através dos pregões. Também resgatamos os principais artistas comercializados, sua origem, técnicas e estilos, possibilitando comparações entre uma visão macro - a do mercado de arte - e micro, dos leilões.
Resumo:
Atualmente o mercado tem impelido seus competidores a oferecerem produtos de qualidade mais elevada com preços progressivamente menores. Esta conjuntura esta gerando bens mais semelhantes e fazendo com que as empresas busquem a criação de valor para seus produtos através de serviços ou outros atributos que possam ser agregados a estes sem aumentar seus custos. A logística encontra-se entre os processos mais atingidos por este fenômeno já que, a exigência de maior eficiência em suas operações é constante, porém eventuais aumentos de custos são prontamente recusados. Dentro deste contexto, este trabalho descreve a aplicação do sistema de custeio ABC na área de logística da Empresa “Z”, do setor de couros e peles do estado do Rio Grande do Sul. O principal objetivo deste trabalho é modelar os custos desta empresa utilizando o sistema de custeio ABC e para tanto utiliza os dados de custos existentes, elabora uma análise de processos da área de logística e propõe um modelo de sistema ABC a ser utilizado. Por fim, traça comparações entre os resultados do sistema atual e aqueles alcançados pelo sistema proposto. Pela pertinência das conclusões, o modelo proposto apresenta boa aderência ao processo logístico da empresa “Z”, evidenciando algumas distorções de apropriações de custos constatadas no sistema atual.
Resumo:
Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
Introdução: a obtenção de um bom controle metabólico é essencial para a prevenção das complicações crônicas do Diabetes Melito (DM). O tratamento é complexo e depende da implementação efetiva das diferentes estratégias terapêuticas disponíveis. Para que isso seja possível, é necessário que o paciente entenda os princípios terapêuticos e consiga executá-los. A precária educação em diabetes é percebida como um dos obstáculos para o alcance das metas terapêuticas. Objetivo: analisar, os fatores associados ao controle metabólico, em pacientes com DM tipo 2 (DM2) não usuários de insulina. Métodos: foi realizado um estudo transversal em pacientes com DM2 não usuários de insulina, selecionados ao acaso entre aqueles que consultavam nos ambulatórios de Medicina Interna, Endocrinologia e Enfermagem do Hospital de Clínicas de Porto Alegre. Os pacientes foram submetidos à avaliação clínica, laboratorial e responderam um questionário que incluía o tipo de tratamento realizado para DM, outros medicamentos e co-morbidades, pesquisa de complicações em ano prévio e avaliação do conhecimento sobre DM. Os pacientes foram classificados em dois grupos, com bom ou mau controle glicêmico, de acordo com o valor da glico-hemoglobina de 1 ponto % acima do limite superior do método utilizado. As comparações entre variáveis contínuas, com distribuição normal, foram analisadas pelo teste t de Student para amostras não-pareadas e para as variáveis de distribuição assimétrica ou com variância heterogênea o teste U de Mann-Whitney. A comparação entre percentagem foi feita pelo teste de qui-quadrado ou exato de Fisher. Foi realizada uma análise logística múltipla para identificar os fatores mais relevantes associados ao controle metabólico (variável dependente). As variáveis independentes com um nível de significância de P < 0,1 na análise bivariada, foram incluídas no modelo. Resultados: foram avaliados 143 pacientes com DM2, idade de 59,3 ± 10,1 anos, duração conhecida do DM 7,5 ± 6,3 anos, índice de massa corporal (IMC) de 29,7 ± 5,2 kg/m².Destes, 94 pacientes (65,73%) apresentavam bom controle glicêmico. Os pacientes com mau controle glicêmico usavam mais anti-hiperglicemiantes orais como monoterapia (OR = 9,37; IC = 2,60-33,81; P=0,004) ou associados (OR = 31,08; IC = 7,42-130,15; P < 0,001). Da mesma maneira, não fizeram dieta em dias de festa (OR = 3,29; IC = 1,51-7,16; P = 0,012). A inclusão do conhecimento sobre diabetes não foi diferente entre os pacientes com bom ou mau controle glicêmico (OR = 1,08; IC = 0,97 - 1,21; P = 0,219). A análise multivariada demonstrou que a consulta com a enfermeira educadora (OR = 0,24; IC = 0,108-0,534; P = 0,003), com o endocrinologista (OR = 0,15 ; IC = 0,063-0,373; P = 0,001) e o uso de hipolipemiantes (OR = 0,10; IC = 0,016 - 0,72; P = 0,054) foram associados ao bom controle glicêmico, ajustados para a não realização de dieta em festas, uso de anti-hiperglicemiantes orais e conhecimento sobre diabetes. Conclusão: o controle metabólico em pacientes DM2 é influenciado pelas atividades de educação com enfermeira e endocrinologista. O tratamento do DM2 deve incluir atividades de educação de forma sistemática.
Resumo:
O espessamento intimal e a reestenose que ocorrem após os procedimentos de angioplastia transluminal percutânea e/ou o implante de stents representam uma causa freqüente de falência destes procedimentos. O principal achado patológico responsável pela reestenose parece ser a hiperplasia intimal, já que o dispositivo intravascular é resistente ao remodelamento arterial geométrico. O propósito deste estudo é avaliar, através da morfometria digital, o espessamento intimal presente nas regiões da parede arterial imediatamente proximal e distal ao implante de um stent metálico em configuração em “Z “ não recoberto ou recoberto com PTFE. Vinte e cinco suínos de raça mista, com seis a dez semanas de idade, pesando em média 20 kg foram divididos em três grupos. No grupo I, cinco animais foram submetidos à exposição cirúrgica retroperitoneal da aorta abdominal, aortotomia e manipulação com uma bainha introdutora de 12 F. O grupo II incluiu dez animais que foram submetidos ao implante de um stent metálico auto-expansível não recoberto. No grupo III, incluindo também dez animais, foram implantados stents recobertos com PTFE. Após quatro semanas, todos os animais foram sacrificados e o segmento aorto-ilíaco foi removido. Quatro animais foram excluídos do estudo por trombose da aorta (um animal do grupo II e três animais do grupo III). Para a análise morfométrica foram utilizados os testes não paramétricos de Wilcoxon e de Kruskal-Wallis, para as comparações, respectivamente, no mesmo grupo e entre os grupos. Foi adotado o nível de significância de 5% ( p< 0,05). Quando os espécimes da parede arterial, imediatamente proximal e distal aos stents foram comparados, nenhuma diferença estatisticamente significativa foi encontrada entre as áreas luminal, intimal, média ou índice intimal em cada grupo. Na comparação entre os grupos, as áreas intimal, média e o índice intimal não demonstraram variação estatisticamente significativa. Foram identificadas diferenças entre os grupos quanto às áreas luminais proximais (p = 0,036) e distais (p=0,044). Pelo teste de comparações múltiplas para Kruskal-Wallis (Teste de Dunn) identificou-se diferença significativa entre os grupos I e II. Entretanto, quando estas variáveis foram controladas pelo fator peso (relação área luminal/peso) a diferença não foi mais observada. Concluímos que, após quatro semanas, stents recobertos com PTFE induzem um espessamento intimal justa-stent similar ao observado com stents não recobertos ou com a simples manipulação arterial com uma bainha introdutora. Neste modelo experimental suíno, de curto seguimento, o revestimento com PTFE não foi responsável por adicional espessamento intimal.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
Esta dissertação tem por objetivo analisar a estrutura poética e os recursos da obra de Manoel de Barros, poeta do Mato Grosso ainda pouco estudado no universo acadêmico e que tem recebido as mais efusivas recomendações mediante críticas em revistas e jornais brasileiros desde a década de 80. Analisamos quinze livros do autor – que serviram como principal fonte bibliográfica – em sete décadas dedicadas à literatura, a contar de sua estréia com Poemas concebidos sem pecado (1937) até Ensaios Fotográficos (2000). Pretendemos mostrar que o escritor inova ao infantilizar a forma poética, não se restringindo a somente tematizar a infância. Seus versos absorvem a percepção lúdica da criança com a linguagem, promovendo a constante ruptura com as regras gramaticais. Como também buscamos comprovar que a poesia de Manoel de Barros é feita sob a ótica do excesso, do acúmulo de imagens e metáforas, contrastando com o estilo de seu contemporâneo João Cabral de Melo Neto, caracterizado como a de uma poesia do essencial e do menos. Em nível metodológico, utilizamos como referência o livro João Cabral: A Poesia do Menos, ensaio de Antonio Carlos Secchin (de 1999), que interpreta o legado de João Cabral sob a ótica do desfalque, da redução da poesia a um dizer essencial, bem como estabelece a importância do sentimento de desconfiança em seu processo poético. Usamos tais reflexões para estabelecer comparações entre uma forma e outra de pensar a poesia, já que tanto João Cabral como Manoel de Barros estabeleceram propostas antagônicas de trabalho de uma forma simultânea, durante o mesmo período. Manoel de Barros propõe a teologia do traste e João Cabral, a psicologia da composição. Desejamos, ainda, apontar as influência do cinema e das artes plásticas, na figura da pop art, na elaboração dos livros do escritor mato-grossense.
Resumo:
Em estudos prévios sobre a filogenia de Passiflora, as espécies P. actinia e P. elegans destacaram-se pela sua grande similaridade genética, apesar de sua classificação em séries taxonômicas distintas. As duas espécies apresentam distribuição geográfica muito diferente. Enquanto P. actinia é encontrada em áreas de Mata Atlântica desde o estado do Espírito Santo até o Rio Grande do Sul (RS), P. elegans está restrita ao RS e a poucas regiões limítrofes. Para melhor avaliar as relações evolutivas entre estas duas espécies foram realizadas coletas intensivas em todo o estado e desenvolvidos testes quanto às seqüências dos espaçadores intergênicos cloroplasmáticos trnL-trnF e psbA-trnH, e dos espaçadores transcritos dos genes ribossomais nucleares ITS de plantas de diferentes localidades. As análises revelaram uma baixa variabilidade intraespecífica, e evidenciaram um perfil genético próprio a cada espécie. Nas comparações interespecíficas, foram utilizadas seqüências de espécies do subgênero (Passiflora) estudadas previamente, pertencentes às séries Simplicifoliae e Lobatae, as mesmas de P. actinia e P. elegans, respectivamente. Nos três marcadores as menores distâncias genéticas encontradas foram entre estas duas espécies, sugerindo o pouco tempo de divergência entre elas. Estas comparações não mostraram diferenças marcantes nas diversidades dentro e entre as duas séries, indicando similaridade genética entre elas Apesar da intensa amostragem realizada na área limítrofe das distribuições de P. actinia e P. elegans, somente foi encontrado um híbrido entre as duas. Além do fenótipo morfológico intermediário, o híbrido pôde ser reconhecido através das suas características genéticas, o espaçador nuclear ITS apresentando padrão aditivo nos sítios variáveis destas duas espécies; as seqüências dos marcadores cloroplasmáticos foram iguais às de P. actinia, indicando que esta é a espécie doadora deste genoma. Os padrões genéticos e geográficos destas duas espécies sugerem que o processo de especiação que se desenvolveu entre as duas seja recente e tenha ocorrido em alopatria, estando provavelmente ligado aos eventos geológicos do Holoceno que influenciaram a migração da Mata Atlântica no RS. A investigação das características abióticas das regiões de ocorrência das espécies não apresentou grandes dissimilaridades, podendo indicar que a atual segregação espacial deva-se à fragmentação florestal ou que haja exclusão competitiva entre elas, pois apresentam nichos ecológicos muito semelhantes.
Resumo:
Objetivos – Descrever as características clínicas de crianças entre 1 e 12 meses hospitalizadas com diagnóstico de bronquiolite viral aguda (BVA), nos primeiros dias de internação, e verificar se o tempo de dessaturação de oxigênio (TD) tem valor prognóstico nesses pacientes. Metodologia – Estudo de coorte realizado de maio a outubro de 2001 com 111 pacientes entre 1 e 12 meses de idade internados no Hospital da Criança Santo Antônio, de Porto Alegre (RS), com diagnóstico de BVA na admissão, com saturação transcutânea de oxigênio da hemoglobina (SatHb) menor que 95% e em oxigenoterapia por cateter extranasal há menos de 24 horas. A gravidade foi verificada através do tempo de internação, tempo de oxigenoterapia e tempo para saturar 95% em ar ambiente (desfechos). Foram realizadas avaliações clínicas duas vezes ao dia (manhã e tarde), durante o período em que o paciente necessitou de oxigênio suplementar (até atingir saturação transcutânea de oxigênio de 95% em ar ambiente), com limite de dez avaliações. Os pacientes tiveram o oxigênio adicional retirado. Foi verificado, então, o tempo necessário para a saturação decrescer até 90% (TD90) e 85% (TD85), limitando-se a medida em no máximo cinco minutos. Foi constituído um escore de gravidade com os sinais clínicos anotados. Utilizou-se o teste do qui-quadrado ou teste exato de Fischer para comparar entre si os grupos de variáveis categóricas e o teste t ou MannWhitney para variáveis numéricas. Foi utilizada a correlação de Spearman para avaliar associações entre variáveis contínuas de distribuição assimétrica (escore de gravidade, tempo de internação, tempo de oxigenoterapia total e tempo para saturar acima ou igual a 95% em ar ambiente). Considerou-se alfa crítico de 5% em todas as comparações, exceto nas correlações em que foi utilizada a correção de Bonferroni para comparações múltiplas (30 correlações: p= 0,002; 10 correlações: p= 0,005). Os dados relativos ao peso e estatura para a idade foram digitados e analisados no programa específico do EpiInfo que utiliza o padrão NCHS (EpiNut). Resultados – Houve leve predomínio do sexo masculino (54%), predominância de idade inferior a quatro meses (61,3%), prevalência maior nos meses de junho e julho, freqüência elevada de história de prematuridade (23%) e de baixo peso de nascimento (14%). As manifestações clínicas prévias à hospitalização (falta de ar, chiado no peito, febre e parar de respirar) ocorreram, na sua maioria, nos três dias anteriores. Da população estudada, 45% tinha história de sibilância prévia, a maioria com um ou dois episódios relatados (31,5%). Esses pacientes foram analisados separadamente e tiveram resultados semelhantes ao grupo com BVA. A freqüência de desnutrição moderada e grave, excluídos os pacientes com história de prematuridade, foi de 26 pacientes (23%). Todos os pacientes utilizaram broncodilatador inalatório; 20% do grupo com BVA receberam corticosteróides sistêmicos e 47% de toda população, antibióticos. A mediana do uso de oxigênio em pacientes com BVA foi de 4,4 dias (IIQ 70,2-165,2) e o tempo de oxigenoterapia até saturar 95% em ar ambiente foi de 3,4 dias (IIQ 55-128). A mediana do tempo de internação hospitalar foi de 7 dias (IIQ 5-10,5) entre os pacientes com BVA; neste aspecto, apresentou diferença (p = 0,041) em relação ao grupo com sibilância prévia, que teve um tempo de internação mais longo (9 dias, IIQ 5-12). Observou-se pouca variabilidade clínica no período estudado, através da aplicação do escore clínico. Não se encontraram correlações estatisticamente significativas entre os escores clínicos e os TDs com os desfechos. Conclusões – Os TDs como elementos auxiliares na avaliação de pacientes em oxigenoterapia não foram clinicamente úteis neste estudo. É possível, no entanto, que, avaliando pacientes com maiores diferenças clínicas entre si, essas aferições possam mostrar-se importantes.
Resumo:
O objetivo deste trabalho é desenvolver um programa computacional, baseado no método dos elementos finitos, para simular situações de reforço e recuperação de peças de concreto armado. A linguagem Matlab é a ferramenta utilizada para a elaboração do programa. É uma linguagem de alta performance para computação técnica. Integra computação, visualização e programação em um fácil ambiente para uso, onde problemas e soluções são expressos em familiar notação matemática. A característica principal deste programa é de permitir alterações na modelagem numérica durante a análise do problema, podendo-se retirar ou acrescentar elementos da estrutura, aumentar ou diminuir rigidezes, alterar materiais, etc, viabilizando-se, assim, uma avaliação das diversas etapas ou hipóteses dos procedimentos de recuperação ou reforço de estruturas. O programa permite a mudança de vinculações do elemento estrutural, durante a análise. Além disto, é permitido não só incrementos de forças como incrementos de deslocamentos impostos à estrutura. O programa computacional utiliza duas etapas distintas, baseadas em um modelo elasto-viscoplástico. Na primeira etapa, faz-se a determinação da resposta da estrutura ao longo do tempo. Considera-se, nesta etapa, que o material possui comportamento viscoelástico. Na segunda, busca-se determinar a resposta da estrutura para um carregamento instantâneo, considerando-se o material com comportamento elastoplástico Para melhor representar o comportamento do concreto, quando submetido a carregamento de longa duração, utilizou-se um modelo de camadas superpostas. A armadura é introduzida no modelo como uma linha de material mais rígido dentro do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Assim, os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Para verificar a precisão do programa computacional desenvolvido, comparam-se os resultados numéricos com resultados experimentais, cujos ensaios foram realizados no Laboratório de Ensaios e Modelos Estruturais do Programa de Pós-Graduação em Engenharia Civil da Escola de Engenharia da Universidade Federal do Rio Grande do Sul, e no Laboratório de Estruturas da Escola de Engenharia de São Carlos- USP. Nessas comparações, obtiveram-se ótimas aproximações entre os resultados numéricos e experimentais.
Resumo:
A competitividade cada vez mais acirrada e globalizada tem forçado as empresas a desenvolver produtos com maior qualidade em um menor tempo com custos cada vez mais baixos. Para isto, passaram a utilizar tecnologias de ponta na manufatura de seus produtos, que envolvem desde a concepção do produto até sua efetiva produção. Uma das etapas mais importantes na concepção de um produto manufaturado, a partir de um projeto, é o planejamento do processo produtivo. A essência dessa atividade é disponibilizar uma gama de informações bem detalhadas e organizadas para o chão de fábrica que pode incluir a seleção da máquinaferramenta, determinação dos parâmetros de corte, geração do programa NC e as instruções de trabalho. Na maioria das empresas o planejamento do processo é feito por processistas experientes que utilizam técnicas manuais, onde despedem tempo considerável fazendo cálculos, recuperando informações, escrevendo, digitando e detalhando o plano, e nenhuma dessas tarefas agrega valor diretamente ao produto. Assim somente uma pequena parcela do tempo total é utilizado na concepção e análise do produto. A introdução dos computadores na confecção do plano de processo torna o planejamento mais eficiente podendo dispor de mais alternativas além daquelas exploradas manualmente, e ainda há vantagens adicionais, como a realização de várias comparações de planos semelhantes para selecionar o melhor para cada caso, reduzindo o tempo de planejamento, exigindo menor experiência técnica dos processistas, resultando em aumento da produtividade com planos otimizados. O sistema desenvolvido dentro da filosofia de planejamento de processo variante-interativo, um método que se utiliza da tecnologia de grupo para formar famílias de peças, onde para cada família é desenvolvido um plano padrão, no qual torna-se a base de dados para novas peças, exigindo alterações apenas nos detalhes que não forem similares. Quando não existir um plano semelhante para nova peça este é gerado de forma interativa onde o processista tem o auxílio do computador na definição da folha de processo, ao contrário de um sistema generativo que utiliza uma programação mais complexa e cria automaticamente planos de processo distintos para a nova peça. Os planos de processo gerados contem os processos de usinagem, as máquinas para realizar os mesmos, ferramentas e portaferramentas, sistemas de fixação, os parâmetros de corte e o sequenciamento das operações. O sistema foi projetado em Visual Basic, uma linguagem que disponibiliza uma interface gráfica amigável com o usuário. O conjunto das informações estritamente necessárias para o desenvolvimento do programa é armazenado em um sistema de gerenciamento de banco de dados relacional (ACCESS), sistema esse escolhido por ter a vantagem de permitir manipular mais de um aplicativo ao mesmo tempo, estabelecendo relações entre eles, buscando eliminar a duplicidade de informações, impondo integridade referencial, reduzindo o espaço de armazenamento e facilitando a atualização dos dados.
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
Em decorrência do cada vez maior acirramento da concorrência e conseqüente diminuição das margens de lucro, as empresas vêem-se obrigadas a revisar e aprimorar seus sistemas de custeio. Dentro deste contexto, o trabalho inicia pela identificação de um custo referencial, definido a partir dos preços regularmente praticados pelo mercado. Em seguida, apresenta uma base para conhecimento de custos e analisa os métodos de custeio, tanto os tradicionais quanto os modernos (métodos do custeio baseado em atividades - Activity-Based Costing (ABC), da Unidade de Esforço da Produção (UEP) e um método de custeio combinado). O trabalho conclui com um estudo de caso, fazendo uma aplicação dos métodos estudados numa indústria do setor farmacêutico, ao final do qual, faz comparações dos métodos de custeio.