47 resultados para Cálculo fracionário
Resumo:
Um dos grandes desafios enfrentados pela indústria do petróleo é reduzir o impacto causado pela cristalização indesejável de hidrocarbonetos parafínicos de elevada massa molar em tubulações e equipamentos de produção. A cristalização de parafinas em petróleo é normalmente detectada através da determinação da temperatura inicial de aparecimento de cristais (TIAC), que pode ser estimada através de modelagem termodinâmica com base na composição do petróleo. Os objetivos deste trabalho são: estudar os principais modelos termodinâmicos adotados para descrever a precipitação de parafinas; verificar a validade desses modelos para os petróleos brasileiros e determinar qual modelo é o mais adequado para esses óleos. Para tanto, três formas de cálculo da razão entre as fugacidades das fases sólida e líquida e cinco modelos para calcular os coeficientes de atividade dos componentes em cada fase são aplicados aos dados de composição de vinte e três petróleos brasileiros. Os resultados mostram que o modelo ideal de múltiplas fases sólidas e o modelo de Escobar-Remolina geram valores bastante abaixo da TIAC experimental. Para os modelos de única fase sólida ideal, de Won e de Coutinho, foi possível observar que: a) a grande maioria dos erros é negativa; b) que estes se distribuem melhor em torno de zero quando se utiliza a correlação de Coutinho para o cálculo dos valores de i; c) os valores de erro médio para os modelos de Coutinho, de Won e ideal com única fase sólida se equivalem, qualquer que seja o modelo utilizado para o cálculo de i, exceto para o caso em que todos os compostos presentes na fase líquida podem precipitar; d) os valores obtidos através do modelo de Coutinho apresentam erro sistemático em relação ao modelo ideal de única fase sólida; e) as diferentes formas de se calcular a razão entre as fugacidades da fase sólida e líquida (i) influenciam fortemente a capacidade preditiva dos modelos, o que não era esperado; f) o perfil do primeiro cristal formado nos petróleos é influenciado pelas moléculas mais pesadas presentes nos resíduos, o que mostra a necessidade de se desenvolver metodologias precisas e robustas de caracterização de resíduos; g) a inclusão de uma estimativa para a composição dos resíduos efetivamente melhorou o desempenho dos modelos em petróleos médio; h) em petróleos pesados, houve um aumento do erro de previsão da TIAC devido à pouca ou nenhuma quantidade de parafinas nos resíduos desses óleos. A necessidade de uma melhor caracterização dos resíduos de petróleos é corroborada pelo fato da TIAC calculada pelos modelos ser, via de regra, mais baixa que a TIAC experimental e pela melhora no desempenho dos modelos quando se estimou a composição dos resíduos, em petróleos médios
Resumo:
Devido a sua alta incidência, mortalidade e custos elevados, o câncer de mama feminino é considerado um problema de saúde pública no Brasil. Sua etiologia envolve uma interação de diversos fatores denominados de risco os quais podem ser ambientais e genéticos. A história familiar positiva para câncer de mama é um importante fator de risco para o desenvolvimento dessa patologia. Conhecer esses fatores e as medidas de proteção permite que mulheres com risco elevado possam criar estratégias pessoais que venham minimizar os danos causados pela doença. Diante do exposto, o presente estudo tem como objetivos avaliar o nível de conhecimento de mulheres acerca do risco de desenvolverem câncer de mama em decorrência do vínculo familiar com a população portadora desta neoplasia matriculada no Hospital do Câncer III, unidade do Instituto Nacional de Câncer (INCA) especializada no tratamento e controle do câncer de mama, localizada no município do Rio de Janeiro, Brasil; descrever as características sociodemográficas das mulheres familiares de pacientes portadoras de câncer de mama e descrever a história reprodutiva e hormonal, bem como seus hábitos de cuidado com a saúde. Metodologia: trata-se de um estudo exploratório sob a perspectiva quantitativa, transversal e descritiva com 52 mulheres que acompanhavam suas familiares internadas em unidade clínica e cirúrgica do Hospital do Câncer III. A coleta de dados ocorreu no período entre julho e agosto de 2011. A técnica de amostragem adotada foi a não probabilística, intencional Para o cálculo amostral aplicou-se a fórmula de população infinita. Foram selecionadas as seguintes variáveis para compor o estudo: aspectos sociodemográficos, aspectos da vida reprodutiva e hormonal, aspectos de cuidados com a saúde e aspectos de esclarecimento relacionados à patologia/doença. Realizou-se entrevista estruturada com utilização de um formulário composto por 63 questões. A descrição das variáveis foi feita através de frequência simples e porcentagem. Resultados: 61,5% eram filhas, 34,6% eram irmãs e 3,8% eram mães, 40,4% moram no município do Rio de Janeiro, 86,4% encontram-se na faixa etária entre 29 e acima de 51 anos de idade, 32% são pardas, 46,1% apresentavam 2 grau completo, 46,2% são do lar, 15,4% tiveram menarca precoce, 7,7 % tiveram na menopausa tardia, 7,7% fizeram Terapia de Reposição Hormonal, 38,5% nunca engravidaram, 3,8% engravidaram após 30 anos, 3,8% não amamentaram, 42,4% usam anticoncepcional hormonal por mais de 5 anos e 40,4% nunca fizeram descanso ou faz por tempo inferior a 6 meses, 7,7% e 7,6% nunca fizeram e apresenta mais de 24 meses que fizeram exame ginecológico. Quanto ao grau de esclarecimento 34% concordaram com as afirmativas sobre fatores de risco, 65% concordaram com medidas preventivas e os profissionais de saúde foram os que mais transmitiram informação sobre o câncer de mama. Conclusão: ser familiar de primeiro grau associado à falta de esclarecimento sobre a doença torna essas mulheres mais vulneráveis em relação à população geral feminina. Torna-se oportuno para a enfermagem estratégias educativas que visem à promoção da saúde e que contribuam para a modificação do panorama da doença, em razão da detecção mais precoce.
Resumo:
Na década de 90 com o aumento da capacidade de processamento e memória dos computadores, surgiu a fotogrametria digital, que tem como objetivo principal o mapeamento automático das feições naturais e artificiais do terreno, utilizando a imagem fotogramétrica digital como fonte primária de dados. As soluções fotogramétricas se tornaram mais compactas e versáteis. A estação fotogramétrica digital educacional E-FOTO é um projeto multidisciplinar, em desenvolvimento no laboratório de Fotogrametria Digital da Universidade do Estado do Rio de Janeiro, que se baseia em dois pilares: autoaprendizado e gratuidade. Este trabalho tem o objetivo geral de avaliar a qualidade das medições fotogramétricas utilizando a versão integrada 1.0β do E-FOTO. Para isso foram utilizados dois blocos de fotografias de regiões distintas do planeta: um bloco de fotografias (2005) do município de Seropédica-RJ e um bloco de fotografias antigas (1953) da região de Santiago de Compostela, na Espanha. Os resultados obtidos com o E-FOTO foram comparados com os resultados do software comercial de fotogrametria digital Leica Photogrammetry Suite (LPS 2010) e com as coordenadas no espaço-objeto de pontos medidos com posicionamento global por satélite (verdade de campo). Sendo possível avaliar as metodologias dos softwares na obtenção dos parâmetros das orientações interior e exterior e na determinação da exatidão das coordenadas no espaço-objeto dos pontos de verificação obtidas no módulo estereoplotter versão 1.64 do E-FOTO. Os resultados obtidos com a versão integrada 1.0β do E-FOTO na determinação dos parâmetros das orientações interior e exterior e no cálculo das coordenadas dos pontos de verificação, sem a inclusão dos parâmetros adicionais e a autocalibração são compatíveis com o processamento realizado com o software LPS. As diferenças dos parâmetros X0 e Y0 obtidos na orientação exterior com o E-FOTO, quando comparados com os obtidos com o LPS, incluindo os parâmetros adicionais e a autocalibração da câmara fotogramétrica, não são significativas. Em função da qualidade dos resultados obtidos e de acordo com o Padrão de Exatidão Cartográfica, seria possível obter um documento cartográfico Classe A em relação à planimetria e Classe B em relação à altimetria na escala 1/10.000, com o projeto Rural e Classe A em relação à planimetria e Classe C em relação à altimetria na escala 1/25.000, com o Projeto Santiago de Compostela. As coordenadas tridimensionais (E, N e H) dos pontos de verificação obtidas fotogrametricamente no módulo estereoplotter versão 1.64 do E-FOTO, podem ser consideradas equivalentes as medidas com tecnologia de posicionamento por satélites.
Resumo:
Neste trabalho é descrita a teoria necessária para a obtenção da grandeza denominada intensidade supersônica, a qual tem por objetivo identificar as regiões de uma fonte de ruído que efetivamente contribuem para a potência sonora, filtrando, consequentemente, a parcela referente às ondas sonoras recirculantes e evanescentes. É apresentada a abordagem de Fourier para a obtenção da intensidade supersônica em fontes com geometrias separáveis e a formulação numérica existente para a obtenção de um equivalente à intensidade supersônica em fontes sonoras com geometrias arbitrárias. Este trabalho apresenta como principal contribuição original, uma técnica para o cálculo de um equivalente à intensidade supersônica, denominado aqui de intensidade acústica útil, capaz de identificar as regiões de uma superfície vibrante de geometria arbitrária que efetivamente contribuem para a potência sonora que será radiada. Ao contrário da formulação numérica existente, o modelo proposto é mais direto, totalmente formulado na superfície vibrante, onde a potência sonora é obtida através de um operador (uma matriz) que relaciona a potência sonora radiada com a distribuição de velocidade normal à superfície vibrante, obtida com o uso do método de elementos finitos. Tal operador, chamado aqui de operador de potência, é Hermitiano, fato crucial para a obtenção da intensidade acússtica útil, após a aplicação da decomposição em autovalores e autovetores no operador de potência, e do critério de truncamento proposto. Exemplos de aplicações da intensidade acústica útil em superfícies vibrantes com a geometria de uma placa, de um cilindro com tampas e de um silenciador automotivo são apresentados, e os resultados são comparados com os obtidos via intensidade supersônica (placa) e via técnica numérica existente (cilindro), evidenciando que a intensidade acústica útil traz, como benefício adicional, uma redução em relação ao tempo computacional quando comparada com a técnica numérica existente.
Resumo:
Nos últimos anos, a população de idosos vem crescendo em todo o mundo, e a pesquisa de marcadores de risco cardiovascular mais precoces é de fundamental importância. Um desses marcadores é a doença arterial periférica (DAP), cuja prevalência aumenta com a idade. A DAP pode ser avaliada de forma simples e não invasiva através do índice tornozelo-braquial (ITB) que, por sua vez, pode ser obtido por cálculos diferentes. Até o momento, apenas o método tradicional foi utilizado no cálculo do ITB na população idosa. O objetivo do presente estudo foi avaliar, em idosos hipertensos que se mostrassem independentes para as atividades diárias, os principais fatores relacionados à redução do ITB, considerando-se duas formas distintas de calcular o índice. Os pacientes (n=65) foram submetidos à avaliação clínica, geriátrica e laboratorial, e divididos nos grupos com ITB normal (> 0,9) e ITB reduzido (≤ 0,9). Inicialmente o ITB foi calculado a partir da divisão da maior pressão sistólica dos membros inferiores pela maior pressão das artérias braquiais. Em seguida, o cálculo do ITB foi realizado por um método alternativo, a partir da utilização da menor ao invés da maior média de pressão sistólica nos membros inferiores. A média de idade foi de 74 anos, sendo 76% do sexo feminino. A prevalência de ITB reduzido foi de 18% pelo método convencional e de 32% pelo método alternativo. Na avaliação pelo método convencional, o grupo com ITB baixo apresentou maior prevalência de doenças cardiovasculares (58 vs 9%, p<0,001), diabetes (83 vs 13%, p<0,01), síndrome metabólica (75 vs 41%, p<0,05), e valores significativamente maiores de pressão arterial sistólica (1699 vs 1523 mmHg, p<0,05) e pressão de pulso (877 vs 672 mmHg, p<0,01). A redução do ITB pelo método alternativo mostrou associação com as mesmas variáveis, mas adicionalmente com maior freqüência de tabagistas (29 vs 20%, p<0,05) e maiores níveis de LDL-colesterol (15413 vs 1245 mg/dl, p<0,05). Além disso, o método alternativo foi capaz de detectar pacientes sem alto risco pelo escore de Framingham, mas obesos e com síndrome metabólica. Esses dados apontariam para um valor adicional desta forma de estimar o risco ao escore de Framingham na estratificação de risco cardiovascular, sugerindo sua incorporação na rotina de avaliação de pacientes idosos
Resumo:
O objetivo é comparar o ajuste interno e marginal cervical de dois sistemas de compósito e um de cerâmica prensada. O Material e Métodos foi elaborado a partir de um modelo mestre metálico com preparo para inlay MOD, 15 troquéis de gesso tipo IV foram obtidos e distribuídos randomicamente em três grupos (n=5), a saber: Grupo Empress, Grupo Sinfony e Grupo Z350. Após a confecção das restaurações, cada peça foi posicionada no modelo mestre e fotografada nas faces mesial e distal para através de um programa de computador fazer a análise da desadaptação marginal cervical. Depois, a peça foi cimentada no modelo mestre usando silicone de adição de ultrabaixa viscosidade para preencher o espaço entre as restaurações e o preparo. Após a remoção das inlays, cada réplica foi pesada em balança de precisão para posterior obtenção de seu volume. Nos Resultados temos a interface paredes do preparo/paredes da restauração: houve diferença estatística entre o grupo Empress, que apresentou volume até 137% maior que os demais grupos, que foram considerados iguais entre si. Área de desadaptação marginal cervical: Houve diferença entre todos os grupos com o grupo Empress apresentando os maiores valores, seguido pelo grupo Sinfony e pelo grupo Z350. Os grupos Empress e o Sinfony apresentaram respectivamente áreas de desadaptação 450% e 200% maiores que o grupo Z350. Maior distância entre as bordas da restauração e as margens do preparo os grupos Empress e Sinfony foram iguais estatisticamente e diferentes do grupo Z350 que apresentou os menores valores. Entretanto, o grupo Empress apresentou uma desadaptação linear 43% maior que o grupo Sinfony. Concluímos que quanto ao desajuste interno, o grupo Empress apresentou os maiores valores no volume da interface dente/restauração, com diferença estatística significativa (P<0,05) em relação aos demais grupos. Para o cálculo da área, a desadaptação marginal foi menor no grupo Z350, seguido dos grupos Sinfony e Empress, todos mostrando diferença estatística significativa entre si (P<0,05). Considerando a medida linear, a desadaptação marginal foi menor no grupo Z350, indicando diferença estatística significativa (P<0,05) deste para os demais grupos.
Resumo:
A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.
Resumo:
A cidade do Rio de Janeiro foi eleita sede dos Jogos Olímpicos e Paraolímpicos de 2016 e são previstos impactos significativos em investimento e na geração de emprego, atrelados a isto existe a preocupação com as questões ambientais e a sustentabilidade do evento. No dossiê de candidatura do Rio de Janeiro a sede dos Jogos Olímpicos de 2016, existia o compromisso com a gestão dos resíduos sólidos. As grandes linhas de ações foram definidas quando do lançamento da candidatura do Rio de Janeiro a sede do evento, fato este que se concretizou em 02 de outubro de 2009. A gestão dos resíduos para 2016 é ainda carente de informações quantitativas de sua geração, das necessidades de adaptações das instalações para o período de realização do evento, bem como da definição de metas para que a gestão dos resíduos devidamente alinhadas com os preceitos do desenvolvimento sustentável. O objetivo deste estudo é avaliar sub o conceito de desenvolvimento sustentável a gestão de resíduos sólidos durante a realização dos Jogos Olímpicos de 2016 na cidade do Rio de Janeiro. A metodologia consiste no levantamento histórico dos Jogos Olímpicos com especial detalhamento nas questões ligadas ao conceito de desenvolvimento sustentável e gestão de resíduos, análise dos Jogos Pan-americanos do Rio de Janeiro, levantamento em campo da preparação dos Jogos Olímpicos de Londres, observações em campo na cidade do Rio de Janeiro e a análise de dados para o cálculo da estimativa de geração de resíduos durante a realização dos Jogos de 2016. As comparações com outros eventos demonstraram semelhanças e diferenças com os Jogos Olímpicos de 2016 e possibilitou a apresentação de proposições para a gestão de resíduos sólidos. A projeção de geração de resíduos durante o evento é significativa e aponta a necessita de atenção para potencializar as ações como coleta seletiva, reciclagem e compostagem. São indicados estudos futuros sobre a gestão dos resíduos, em especial da construção civil durante as obras das futuras instalações, algumas delas já em curso.
Resumo:
Nesta dissertação são apresentados resultados de simulações Monte Carlo de fluorescência de raios X (XRF), utilizando o programa GEANT4, para medidas de espessura de revestimento metálico (Ni e Zn) em base metálica (Fe). As simulações foram feitas para dois tamanhos de espessura para cada metal de revestimento, (5μm e 10μm), com passos de 0,1 μm e 0,001 μm e com 106 histórias. No cálculo da espessura do revestimento foram feitas as aproximações de feixe de raios X monoenegético, com a análise da transmissão apenas da energia do K-alfa e para uma geometria compatível com um sistema real de medição (ARTAX-200). Os resultados mostraram a eficiência da metodologia de simulação e do cálculo da espessura do revestimento, o que permitirá futuros cálculos, inclusive para multirevestimentos metálicos em base metálica.
Resumo:
O emprego das técnicas de posicionamento de alta-precisão e de precisão, com recurso ao Sistema de Posicionamento Global, têm se consolidado como solução definitiva para a obtenção das coordenadas de pontos sobre a superfície terrestre, nas mais diversas aplicações, em particular aquelas envolvidas na realização do cadastro em áreas urbanas e construção da base de dados associada aos Sistemas de Informação Geográfica utilizados na gestão territorial. Os receptores GPS armazenam as informações dos satélites inicialmente em formato próprio, porém a maioria dos usuários não usa esse formato para trabalho, e sim o formato RINEX. Sendo este um formato importante ao trabalhar com GPS, os softwares proprietários que geralmente acompanham os receptores e fazem a transformação de seu formato próprio para o RINEX, processam as observáveis de forma exclusiva e fechada, não permitindo alteração de seu código-fonte (o que configura uma caixa preta). Este trabalho visa elaborar e implementar um programa com código-fonte aberto para leitura e manipulação de arquivos de efemérides transmitidas e precisas do Sistema de Posicionamento Global GPS e aplicá-lo ao posicionamento de satélites artificiais, e ainda realizar um estudo do comportamento do mesmo no posicionamento geodésico de pontos na superfície terrestre. Considerando-se que a posição terrestre dos satélites influencia diretamente no cálculo da posição de pontos sobre a superfície, esse estudo verifica que é possível obter coordenadas dos satélites a partir das efemérides transmitidas de forma coerente, e isto é feito utilizando-se o processamento que o programa faz ao manipular corretamente os arquivos RINEX. O programa implementado é capaz de lidar com os arquivos de formato RINEX e SP3, lendo, extraindo e utilizando informações para uma aplicação de posicionamento terrestre de satélites artificiais GPS, podendo ainda realizar outras aplicações como o posicionamento geodésico de pontos adaptando seu código-fonte para outros modelos. Esse programa poderá ser utilizado em benefício dos profissionais que atuam em diversas aplicações que envolvam o posicionamento geodésico por satélites, proporcionando flexibilidade de trabalho, pois o programa terá código-fonte aberto.
Resumo:
A geotecnia constitui uma disciplina relativamente recente na área da engenharia civil, e dessa disciplina faz parte um capítulo ainda menos estudado que trata de fundações submetidas a esforços de tração. O presente trabalho deriva do conjunto de provas de cargas realizado para um importante projeto de linhas de transmissão que permitiu a aferição da teoria de capacidade de carga à tração da Universidade de Grenobel, cujos estudos comparativos mostram bons resultados para fins de aplicações práticas. De posse da extensa documentação técnica produzida e documentada por esse estudo foi possível comparar os resultados obtidos pelas provas de cargas e os resultados teóricos com os resultados das modelagens 2D axisimetricas por elementos finitos. Além dessas análises, foi possível verificar a variação da resistência à tração através de análises paramétricas realizadas a partir da variação da coesão e do ângulo de atrito. Os estudos apresentados reafirmam a confiabilidade das teorias da Universidade de Grenoble, que contemplam a simplicidade desejada às aplicações de cunho prático, com resultados satisfatórios em relação àqueles obtidos nos ensaios de tração. Por outro lado, as análises paramétricas realizadas indicaram a tendência de comportamento que a resistência à tração deve apresentar para diferentes parâmetros do solo. O conhecimento dessas tendências permite ao projetista avaliar os fatores de segurança sob ponto de vista probabilístico, ou seja, permite o emprego de fatores de segurança com o conhecimento da probabilidade de ruína associada. As análises probabilísticas foram traçadas a partir do emprego de funções genéricas de várias variáveis no formato FOSM (First Order Second Moment) que fornecem soluções aproximadas para o cálculo de desvio padrão quando não existe uma amostragem representativa. Ao término das análises, obteve-se como resultado, o mapa comparativo da probabilidade de ruína para os mesmos fatores de segurança empregados com base em resistências estimadas através de diferentes métodos de cálculos (Universidade de Grenoble e modelagem computacional).
Resumo:
Redes embutidas (NoC, Network-on-Chip) vêm sendo adotadas como uma solução interessante para o projeto de infraestruturas de comunicação em sistemas embutidos (SoC, System-on-Chip). Estas redes são em geral parametrizadas, podendo assim ser utilizadas em vários projetos de SoCs, cada qual com diferentes quantidades de núcleos. NoCs permitem uma escalabilidade dos sistemas, ao mesmo tempo que balanceiam a comunicação entre núcleos. Projetos baseados em NoC visam a implementação de uma aplicação específica. Neste contexto, ferramentas de auxílio de projeto são essenciais. Estas ferramentas são projetadas para, a partir de uma descrição simples da aplicação, realizar sucessivos processos de otimização que irão modelar as várias características do sistema. Estes algoritmos de otimização são necessários para que a rede atenda a um conjunto de restrições, como área, consumo de energia e tempo de execução. Dentre estas etapas, pode ser incluído o roteamento estático. As rotas através da rede por onde os núcleos irão se comunicar são otimizadas, de forma a minimizar o tempo de comunicação e os atrasos na transmissão de pacotes ocasionados por congestionamentos nas chaves que compõem a NoC. Nesta dissertação, foi utilizada a otimização por colônia de formigas no cálculo dos percursos. Esta é uma meta-heurística interessante para a solução de problemas de busca em grafos, inspirada no comportamento de formigas reais. Para os algoritmos propostos, múltiplas colônias são utilizadas, cada uma encarregada pela otimização do percurso de uma mensagem. Os diferentes testes realizados mostram o roteamento baseado no Elitist Ant System obtendo resultados superiores a outros algoritmos de roteamento.
Resumo:
Esta tese realiza uma análise de custo de um programa de prevenção de internação hospitalar para idosos (acima de 65 anos), no ambiente da saúde suplementar. Trata-se um programa voltado para idosos considerados de risco, de acordo com um questionário que avalia a probabilidade de risco de internação hospitalar. Indivíduos de risco são convidados a participar do programa, quando se estabelecem dois grupos: um que aceita a intervenção do programa (Grupo Bem Viver) e outro que recusa (Grupo Recusa). A intervenção do programa está voltada para o acompanhamento domiciliar, com equipe multidisciplinar, que se efetiva de acordo com uma estratificação, segundo a avaliação da dependência funcional para os indivíduos. Essa estratificação funcional divide os idosos do programa em cinco grupos distintos, denominados grupos funcionais. Indivíduos que recusam a intervenção mantêm a assistência com cuidado usual. A análise de custo é uma avaliação econômica parcial que estabelece uma comparação da utilização de serviços de saúde entre os dois grupos de idosos: um sob intervenção, grupo Bem Viver, e outro em cuidado usual, grupo Recusa. Esta análise foi realizada para um período dividido em 12 meses antes do evento (intervenção ou recusa) e 12 meses após o evento. Levantou-se a utilização de serviços de saúde de acordo com os indicadores de consultas, exames, procedimentos ambulatoriais, internações e consultas hospitalares. O custo do programa foi incluído também na análise final. Comparações foram estabelecidas entre os grupos no padrão de utilização, considerando-se os períodos antes e depois do evento. Os grupos funcionais foram analisados dentro da perspectiva da utilização para os mesmos períodos. Os resultados demonstraram que o grupo com adesão tem um grande percentual de indivíduos com dependência funcional, sugerindo que existe uma seleção adversa na aceitação do programa, quando indivíduos de maior risco têm adesão. Para o grupo sob intervenção, ocorreu um aumento da utilização com os serviços de saúde no conjunto de consultas, exames e procedimentos ambulatoriais, havendo diminuição com o custo unitário das internações hospitalares e consultas hospitalares. O grupo que recusa tem discreto aumento para o conjunto de consultas, exames e procedimentos ambulatoriais e um grande percentual de aumento para as internações (+40.2%) e consultas hospitalares (34.3%). Este resultado para internações foi analisado também através da transformação logarítmica, com uso da função inversa para a base de cálculo. Nesta aplicação estatística foi confirmado esse resultado para o padrão de utilização de internações. Na análise final, que incluiu o custo do programa propriamente dito, foi apresentada uma hipótese de avaliação para o grupo Bem Viver, sem a intervenção do programa. Desta maneira, realizou-se uma projeção para a utilização do grupo Bem Viver, a partir dos percentuais atingidos pelo grupo Recusa.
Resumo:
Este trabalho pretende contribuir para o entendimento sobre a produtividade na agricultura brasileira, bem como propõe uma reflexão sobre o debate da produtividade total dos fatores. Para isso, buscou-se, antes de tudo, debater as medidas de produtividade, sobretudo as medidas de produtividade total dos fatores e, em seguida, apresentar estimativas da produtividade total na agricultura no Brasil e no mundo. Propõem-se também uma estimativa preliminar dessa metodologia para o cálculo da produtividade total dos fatores na cultura do milho através do índice de Tornqvist. O objetivo é, então, revisar a literatura teórica e empírica sobre a produtividade total dos fatores na agricultura e calcular as produtividades parciais e totais na cultura do milho para os estados brasileiros. Apesar da maior parte dos resultados encontrados no cálculo da produtividade total para a cultura do milho no Brasil não terem sido consistentes, a conclusão geral do levantamento bibliográfico foi que tanto a agricultura brasileira quanto a agricultura mundial, independente da metodologia utilizada, apresentou uma tendência ao crescimento da produtividade total dos fatores.
Resumo:
Neste trabalho é apresentado o desenvolvimento de um programa computacional que simula o desempenho térmico de um sistema de aquecimento solar de água com circulação forçada, adequado para uso em edificações. O programa trabalha realizando o balanço de massa e de energia no reservatório térmico a cada hora, tendo como valores de entrada dados do ano meteorológico típico da localidade selecionada e a vazão de água quente de consumo. Os componentes do sistema são o reservatório térmico de água quente com aquecedor auxiliar interno, o coletor solar e a bomba de circulação. A base de dados meteorológicos escolhida foi a do projeto SWERA, que contém arquivos no formato padrão TMY disponíveis na internet para um número considerável de cidades, incluindo diversas localidades brasileiras. Foi proposto um modelo de temperatura de água da rede de abastecimento relacionado com a temperatura do solo, dado disponível nos arquivos de entrada utilizados. O programa utilizou como referência para a validação dos modelos de cálculo resultados obtidos pelo programa comercial de simulação TRNSYS. Foram comparados resultados para os modelos de irradiação incidente em superfície inclinada, do coletor solar e do sistema completo. Para isto foram simulados sistemas localizados em quatro cidades distintas com climas diferentes. O tempo total usado nas simulações foi de um ano e os resultados das comparações dos valores resultantes foram considerados satisfatórios.