969 resultados para Compressão de dados (Telecomunicações)
Resumo:
O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.
Resumo:
Este trabalho teve como objetivo principal implementar um algoritmo empírico para o monitoramento do processo de eutrofização da Baía de Guanabara (BG), Rio de Janeiro (RJ), utilizando dados de clorofila-a coletados in situ e imagens de satélite coletadas pelo sensor MERIS, a bordo do satélite ENVISAT, da Agência Espacial Européia (ESA). Para a elaboração do algoritmo foi utilizada uma série histórica de clorofila-a (Out/2002 a Jan/2012) fornecida pelo Laboratório de Biologia Marinha da UFRJ, que, acoplada aos dados radiométricos coletados pelo sensor MERIS em datas concomitantes com as coletas in situ de clorofila-a, permitiu a determinação das curvas de regressão que deram origem aos algorítmos. Diversas combinações de bandas foram utilizadas, com ênfase nos comprimentos de onda do verde, vermelho e infra-vermelho próximo. O algoritmo escolhido (R = 0,66 e MRE = 77,5%) fez uso dos comprimentos de onda entre o verde e o vermelho (665, 680, 560 e 620 nm) e apresentou resultado satisfatório, apesar das limitações devido à complexidade da área de estudo e problemas no algoritmo de correção atmosférica . Algorítmos típicos de água do Caso I (OC3 e OC4) também foram testados, assim como os algoritmos FLH e MCI, aconselhados para águas com concentrações elevadas de Chl-a, todos com resultados insatisfatório. Como observado por estudos pretéritos, a Baia de Guanabara possui alta variabilidade espacial e temporal de concentrações de clorofila-a, com as maiores concentrações no período úmido (meses: 01, 02, 03, 10, 11 12) e nas porções marginais (~ 100 mg.m-3), particularmente na borda Oeste da baia, e menores concentrações no período seco e no canal principal de circulação (~ 20 mg.m-3). O presente trabalho é pioneiro na construção e aplicação de algoritmos bio-óptico para a região da BG utilizando imagens MERIS. Apesar dos bons resultados, o presente algorítmo não deve ser considerado definitivo, e recomenda-se para trabalhos futuros testar os diferentes modelos de correção atmosférico para as imagens MERIS.
Resumo:
A avaliação objetiva da qualidade de imagens é de especial importância em diversas aplicações, por exemplo na compressão de imagens, onde pode ser utilizada para regular a taxa que deve ser empregada para que haja a máxima compressão (permitindo perda de dados) sem comprometer a qualidade final; outro exemplo é na inserção de marcas dágua, isto é, introdução de informações descritivas utilizadas para atestar a autenticidade de uma imagem, que devem ser invisíveis para o observador. O SSIM (Structural SIMilarity) é uma métrica de avaliação objetiva da qualidade de imagens de referência completa projetada para imagens em tons de cinza. Esta dissertação investiga sua aplicação na avaliação de imagens coloridas. Para tanto, inicialmente é feito um estudo do SSIM utilizando quatro diferentes espaços de cores RGB, YCbCr, Lαβ e CIELAB. O SSIM é primeiramente calculado nos canais individuais desses espaços de cores. Em seguida, com inspiração no trabalho desenvolvido em (1) são testadas formas de se combinar os valores SSIM obtidos para cada canal em um valor único os chamados SSIM Compostos. Finalmente, a fim de buscar melhores correlações entre SSIM e avaliação subjetiva, propomos a utilização da mínima diferença de cor perceptível, calculada utilizando o espaço de cores CIELAB, conjuntamente com o SSIM. Para os testes são utilizados três bancos de dados de imagens coloridas, LIVE, IVC e TID, a fim de se conferir consistência aos resultados. A avaliação dos resultados é feita utilizando as métricas empregadas pelo VQEG (Video Quality Experts Group) para a avaliação da qualidade de vídeos, com uma adaptação. As conclusões do trabalho sugerem que os melhores resultados para avaliação da qualidade de imagens coloridas usando o SSIM são obtidas usando os canais de luminância dos espaços de cores YCbCr, Lαβ e especialmente o CIELAB. Também se concluiu que a utilização da mínima diferença de cor perceptível contribui para o melhoramento dos resultados da avaliação objetiva.
Resumo:
Este trabalho foi feito com dados de campo da Bacia de Benguela, na costa sul de Angola. Nesta área aflora uma plataforma carbonática de idade albiana, análoga às formações produtoras de petróleo de mesma idade na Bacia de Campos. Duas unidades principais compõem a seção albiana na área: uma unidade inferior caracterizada por carbonatos de águas rasas com intercalações de conglomerados e arenitos na base, totalizando 300 m de espessura total, e uma unidade superior formada por sedimentos carbonáticos de águas mais profundas com espessura de 100 m. Esta seção se apresenta em dois domínios estruturais. O norte é caracterizado por uma plataforma de cerca de 5 km de largura, 35 km de comprimento na direção NE e que se encontra próxima ao embasamento. No domínio sul, essa plataforma se apresenta em fragmentos de menos de 10 km de comprimento por até 5 km de largura, alguns deles afastados do embasamento. Dado que há evaporitos sob essa plataforma, fez-se este trabalho com o objetivo de se avaliar a influência da tectônica salífera na estruturação das rochas albianas. A utilização de imagens de satélite de domínio público permitiu a extrapolação dos dados pontuais e a construção de perfis topográficos que possibilitaram a montagem das seções geológicas. Os dados de campo indicam que a estruturação na parte norte, onde há menos sal, é influenciada pelas estruturas locais do embasamento. Já na parte sul, onde a espessura de sal é maior, a deformação é descolada das estruturas do embasamento. Foi feita uma seção geológica em cada domínio e a restauração dessas duas seções mostrou que a unidade albiana na parte sul sofreu uma distensão de 1,25 (125%) e a de norte se distendeu em 1,05 (105%). Essa diferença foi causada por uma maior espessura original de sal na parte sul, que fez com que a cobertura albiana se distendesse mais em consequência da fluência do sal mergulho abaixo, em resposta ao basculamento da bacia em direção a offshore. A intensidade da deformação na parte sul foi tal que os blocos falhados perderam os contatos entre si, formando rafts. Este efeito foi reproduzido em modelos físicos, indicando que a variação na espessura original de sal tem grande influência na estruturação das rochas que o cobrem. As variações de espessura de sal são controladas por zonas de transferência do embasamento e estas mesmas estruturas controlam os limites dos blocos que sofrem soerguimento diferencial no Cenozoico.
Resumo:
Nos depósitos cenozóicos da Bacia de Taubaté são encontrados depósitos de folhelhos betuminosos (oleígenos) pertencentes à Formação Tremembé, de idade oligocênica, que durante alguns anos na década de 50 foram investigados com relação ao seu aproveitamento econômico através da extração industrial do óleo nele contido. Entretanto, em face de aspectos tecnológicos e conjunturais da época, esse aproveitamento industrial foi considerado inviável do ponto de vista econômico. Nesta dissertação é proposta uma aplicação da perfilagem geofísica para a caracterização da faciologia dos folhelhos betuminosos da Formação Tremembé, tendo como objetivo principal a identificação das eletrofácies nos perfis elétricos, através de uma metodologia robusta e consistente. A identificação de eletrofácies é importante para ajudar na determinação da caracterização de uma reserva não convencional e na análise da viabilidade econômica. Neste estudo foram utilizados os perfis convencionais de poço: Raio gama, resitividade, potencial espontâneo e sônico. Os dados de perfis de poços foram integrados com os testemunhos e dados geoquímicos, mais precisamente os dados de COT, S, IH, S2 para uma caracterização realística das eletrofácies. Os dados foram obtidos a partir de três sondagens rotativas realizadas na Bacia de Taubaté, resultantes de testemunhagem contínua e perfilagem a cabo ao longo do intervalo de folhelhos da Formação Tremembé. A partir disto, obtém-se como resposta um modelo específico para cada litologia, onde cada pico corresponde a uma eletrofácies, permitindo o estabelecimento de alguns padrões ou assinaturas geofísicas para as principais fácies ocorrentes. Como resultado deste trabalho, foi possível correlacionar as eletrofácies entre os poços numa seção modelo, a partir de similaridade lateral das eletrofácies entre os marcos estratigráficos representado, foi possível observar a continuidade de duas sequências de folhelhos betuminoso com alto teores de COT, S, IH, S2, considerados os mais importantes do ponto de vista econômico e gerado um modelo faciológico 2D e 3D dessas camadas. Os resultados obtidos neste trabalho são bastante promissores, apontando para a possibilidade de aplicação desta técnica a outros poços da Bacia de Taubaté, fornecendo subsídios relevantes à determinação da evolução sedimentar.
Resumo:
A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
Resumo:
Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.
Resumo:
Neste trabalho são apresentadas algumas características físicas, vantagens e viabilidade do uso do pó de tecido, proveniente do processamento de resíduos têxteis que são descartados em confecções em geral. A produção e utilização desse tipo de pó diminui o impacto ambiental e se mostra viável economicamente, pois é produzido facilmente a partir do processamento de resíduos, que seriam descartados na natureza. O presente trabalho mostra o estudo da produção do pó de tecido e a sua substituição parcial do agregado miúdo natural na produção de concretos de cimento Portland convencionais. Para comprovar a viabilidade técnica e econômica do uso do pó de tecido foram analisadas características do agregado como sua composição granulométrica, e seu comportamento nos ensaios de abatimento tronco de cone (Slump Test). Uma relação água-cimento também foi convencionada a um concreto usual com resistência esperada de 27MPa. Com estes dados foi definido um traço para o concreto utilizando 5% e 15% de agregado pó de tecido, substituindo a areia. A pesquisa apresenta os resultados de resistência à compressão simples dos corpos de prova cilíndricos de concreto aos 28 dias. Verificou-se que as amostras não apresentaram diferenças significativas de resistência entre si, tão pouco com relação às resistências de um concreto convencional produzido somente com agregado miúdo natural. Entretanto, houve uma melhora nos resultados dos ensaios à compressão, principalmente no concreto com 15% de pó de tecido.
Resumo:
A estatística é uma ciência com seus conceitos e métodos de coleta, organização e analise de informações que fazem parte dos currículos escolares da educação básica, na prática dos professores de matemática, para que os alunos compreendam, analisem e formem opinião crítica em relação às questões econômicas e sociais. A presente pesquisa buscou refletir sobre as práticas pedagógicas do professor de matemática no ensino de estatística no ensino médio, tendo como base as orientações para o ensino de estatísticas nas propostas dos Parâmetros Curriculares do Ensino Médio, as contribuições da aprendizagem significativa no ensino de estatística, com o uso das tecnologias na educação, através da proposta de planos de trabalho que abordem os conteúdos do ensino de estatística e a utilização do software livreCalc. Em relação aos caminhos metodológicos foi realizada uma pesquisa bibliográfica, utilizando o método de abordagem dedutivo, através de documentação indireta tendo como fonte de pesquisa os trabalhos científicos com foco no ensino e na aprendizagem da Estatística e da Probabilidade na Educação Básica. O desenvolvimento desta pesquisa possibilitou evidenciar caminhos metodológicos a serem desenvolvidos por professores de matemática na educação básica que contribuam na interpretação de dados do cotidiano a partir de análise de tabelas, análise de gráficos, medidas de posição, medidas de dispersão e linhas de tendência, utilizando como ferramentas as Tecnologias da Informação e Comunicação tendo como fundamentação teórica as contribuições de David Ausubel o conceito de aprendizagem significativa.
Resumo:
Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.
Resumo:
Estudo de comparação entre dois métodos de coleta de dados, através da aplicação de um software, para avaliação dos fatores de risco e danos no trabalho de enfermagem em hospital. Objetiva analisar o uso do software (eletrônico) em comparação com o uso do instrumento impresso. Trata-se de um estudo estatístico, descritivo com abordagem quantitativa, desenvolvido nas enfermarias dos Serviços de Internações Clínicas e Serviços de Internações Cirúrgicas de um Hospital Universitário, no estado do Rio de Janeiro. A população do estudo foram os trabalhadores de enfermagem das unidades. A amostra foi definida por meio de amostragem não-probabilística e alocação da amostra ocorreu de forma aleatória em dois grupos, denominados grupo impresso e grupo eletrônico, com 52 participantes cada. Previamente a coleta de dados foram implementadas estratégias de pesquisa denominada teaser, através da comunicação digital aos trabalhadores. Posteriormente, foi ofertado aos participantes do formato impresso o questionário impresso, e os participantes do formato eletrônico receberam um link de acesso a home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 47 trabalhadores do grupo impresso (90,3%), e 17 trabalhadores do grupo eletrônico (32,7%). A aplicação do questionário impresso revelou algumas vantagens como o número de pessoas atingidas pela pesquisa, maior interação pesquisador e participante, taxa de retorno mais alta, e quanto às desvantagens a demanda maior de tempo, erros de transcrição, formulação de banco de dados, possibilidades de resposta em branco e erros de preenchimento. No formato eletrônico as vantagens incluem a facilidade de tabulação e análise dos dados, impossibilidade de não resposta, metodologia limpa e rápida, e como desvantagens, o acesso à internet no período de coleta de dados, saber usar o computador e menor taxa de resposta. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores perceberam a existência dos riscos ocupacionais, principalmente os ergonômicos, biológicos e de acidentes. Os principais danos à saúde provocados ou agravos pelo trabalho percebidos pelos trabalhadores foram os problemas osteomusculares, estresse, transtornos do sono, mudanças de humor e alterações de comportamento e varizes. Pode-se afirmar que não ocorreram diferenças acentuadas de percentual ao comparar a percepção dos trabalhadores do grupo impresso e do grupo eletrônico frente aos riscos e danos à saúde. Conclui-se que os dois processos de coleta de dados tiveram boa aceitação, no entanto, deve ser indicada a aplicação do questionário eletrônico junto com a ferramenta de acesso, no caso o computador, tablet.
Resumo:
Esta pesquisa tem como objeto os fatores que influenciam a mensuração glicêmica realizada pela enfermagem em pacientes que recebem insulina contínua intravenosa utilizando glicosímetros portáteis à beira leito. Vários fatores podem influenciar a mensuração glicêmica, tais como a amostra sanguínea, a calibração do aparelho, a estocagem das fitas-teste, o hematócrito dos pacientes, o uso de vasoaminas e falhas do operador. A partir da Tese de que: A identificação dos fatores que influenciam a mensuração glicêmica realizada pela enfermagem através de glicosímetros é determinante para a eficiência das barreiras de salvaguarda voltadas para a minimização de falhas na sua execução, a fim de garantir resultados glicêmicos confiáveis e, consequentemente, realizar a titulação da insulina com segurança, teve-se como objetivo geral propor ações de enfermagem que funcionem como barreiras para diminuir as falhas nas mensurações glicêmicas realizadas pela enfermagem em pacientes que recebem infusão contínua de insulina. Espera-se contribuir com ações para garantir a adequação e o controle rigoroso da insulina administrada. Estudo observacional, transversal, prospectivo com abordagem quantitativa na análise dos dados, em uma unidade intensiva cirúrgica cardiológica de um hospital público do Rio de Janeiro. As variáveis do estudo foram submetidas a tratamentos estatísticos não paramétricos e às medidas de associação. Foram investigados 42 pacientes com observação de 417 glicemias. Predominaram pacientes do sexo feminino (57,14%), média de idade de 48 (15,85) anos, sem insuficiência renal e sem tratamento dialítico (90,48%). Observou-se PAM com média de 77(10,29) mmHg, uso de vasoaminas (80,95%), PaO2 ≥ 90mmHg em 85,71% e hematócrito <35% em 71,42%. Encontrou-se uma incidência de hipoglicemia de 35,7%, sendo a população dividida em dois grupos, o primeiro (G1) com pacientes que apresentaram hipoglicemia ≤ 60mg/dl (n=15), e o segundo (G2), com pacientes sem hipoglicemia (n=27). O hematócrito baixo foi a característica clínica que apresentou maior associação com a hipoglicemia. Pacientes com esta condição apresentaram 5,60 vezes mais risco de apresentarem hipoglicemia. O uso de vasoaminas elevou 3,3 vezes o risco de hipoglicemia em pacientes com estas medicações. A realização de cirurgias de emergência, a presença de insuficiência renal com tratamento dialítico, e a elevação da PaO2 acima de 90mmHg também apresentaram associação positiva com a hipoglicemia. Das 417 mensurações observadas, predominou o uso de amostra sanguínea de origem arterial. Observou-se que em todas as etapas da técnica de mensuração houve desvio de execução, com exceção de compressão da polpa digital. Os desvios observados que mostraram associação positiva (RR>1) para pacientes com hipoglicemia foram: a falta de calibração do glicosímetro, a falta de verificação da validade/integridade da fita teste, a falta da higienização das mãos e a falta da coleta de até 1 ml de sangue. Construiu-se uma revisão da técnica de mensuração glicêmica com enfoque nos fatores que podem comprometer o resultado glicêmico levando em conta o risco de hipoglicemia. Tornou-se evidente que a compreensão apropriada dos fatores que influenciam a glicemia e a mensuração glicêmica é indispensável para o enfermeiro na obtenção de resultados glicêmicos confiáveis, e assim, evitar erros na titulação das doses de insulina administrada.
Resumo:
Este estudo avaliou o potencial da Telemedicina como suporte complementar a assistência ambulatorial na monitoração de sintomas em pacientes com câncer avançado. Foram acompanhados 12 pacientes do ambulatório do Núcleo de Cuidados Paliativos do Hospital Universitário Pedro Ernesto (NCP-HUPE) de janeiro de 2011 a agosto de 2013. Mensalmente foram feitas consultas ambulatoriais pela médica e equipe multidisciplinar. Neste intervalo, os pacientes do domicilio, através de seus computadores pessoais se conectaram ao Laboratório de TeleSSaúde UERJ pelo serviço de webconferências interagindo com a mesma médica assistente do ambulatório. Os pacientes também tiveram acesso à médica por celular e email. A cada entrevista (presencial e remota) foi aplicada a Escala de Avaliação de Sintomas de Edmonton [Edmonton Symptom Assessment System (ESAS)], e coletado outros dados quanto a outras queixas biopsicossociais e espirituais, agravos à saúde, qualidade de áudio e vídeo da conexão, avaliação dos familiares com a Telemedicina e interferência da Telemedicina quanto ao local do óbito do paciente. Houve dificuldade na seleção dos pacientes, pois o HUPE é um hospital público cuja população assistida tem, caracteristicamente, baixa escolaridade, nível socioeconômico restrito e pouca habilidade com informática. O tempo médio de acompanhamento foi de 195 dias (DP 175,11; range: 11-553 dias). Todos receberam diagnóstico de câncer avançado e tinham dificuldades com locomoção. Sem dúvidas, a ESAS favoreceu a comunicação dos sintomas com os profissionais de saúde; porém, condições clínicas e controle dos sintomas singulares, avaliados em momentos distintos e sujeitos a influências diversas, impedem conclusões em relação às pretensas vantagens. Acompanhamento clínico, detecção de agravos à saúde e de sintomas físicos, psicossociais e espirituais foram possíveis de ser observados pela Telemedicina, confirmados e medicados nas consultas presenciais. A conexão para webconferência foi estabelecida por familiares, pois nenhum paciente operava computadores. O óbito domiciliar ocorreu em 41,67% e todos, mesmo os óbitos hospitalares, receberam suporte à distância do NCP. Durante o estudo foram feitos 305 contatos: 110 consultas presenciais a pacientes e familiares e 195 por Telemedicina (77 webconferências, 38 telefonemas e 80 emails). Todos os familiares referiram satisfação com o suporte oferecido. A Telemedicina permitiu maior acesso ao sistema de saúde (maior número de contatos), reduziu a busca por serviços de emergência, ajudou o controle dos sintomas e proporcionou orientações e segurança aos familiares. Este suporte favoreceu intervenções precoces e proativas e assistência continuada até o óbito. A Telemedicina demonstrou ser um bom adjuvante na monitoração e gerenciamento de sintomas de pacientes em cuidados paliativos em domicílio, não substituindo, mas complementando a assistência presencial.
Resumo:
O trabalho aqui apresentado teve como objetivo, avaliar o método de Eaton (1975) aplicado ao cálculo de pressão de poros das formações rochosas em subsuperfície, utilizando dados de perfis de poços no que diz respeito a porosidade, tais como, o Tempo de Transito da onda compressional, Resistividade, Densidade e Neutrão. Posteriormente foi avaliado o resultado alcançado por esta técnica e confrontado com o dado obtido pelo registro de pressão real da formação, adquirido pela ferramenta de perfilagem MDT. Distribuídos em 6 poços perfurados na porção sul da Bacia de Campos, o intervalo cronoestratigráfico estudado está compreendido no período geológico Terciário, e os registros de pressão real da formação foram adquiridos nos reservatórios turbidíticos da Formação Carapebus (Eoceno). Apesar de existir um mecanismo causador de anomalia de pressão na bacia (Desequilíbrio de Compactação Difícil migração dos fluidos ao longo do tempo geológico) devido ao forte aporte sedimentar sustentado pelo soerguimento da Serra do Mar no Eoceno, os resultados encontrados não apontaram qualquer tipo de alteração nas respostas dos perfis utilizados, onde a referência foi a assinatura do perfil sônico em um trend normal de compactação compreendido por rochas argilosas dentro do intervalo cronoestratigráfico estudado. O presente trabalho atesta que a boa calibração do trend de ompactação normal em rochas argilosas, juntamente com a similaridade entre o resultado obtido pelo cálculo da pressão de poros a partir do perfil sônico, e os valores reais registrados diretamente na formação, pela ferramenta de registro de pressões (MDT), comprovam a aplicabilidade do método de Eaton (1975) para o cálculo de geopressões a partir de um conjunto básico de perfis de poços tais como: Raios Gama, Resistividade, Velocidade Acústica, Densidade e Neutrão
Resumo:
A mamoplastia de aumento está associada a alto grau de satisfação e significativa melhora da qualidade de vida das pacientes. Apesar disso, uma das principais causas de reoperação após esse procedimento se refere a deformidades de contorno e questões volumétricas. Ainda existem poucos dados objetivos para análise volumétrica pós-operatória da mamoplastia de aumento. O parênquima mamário sofre alterações microvasculares quando sob compressão mecânica, porém o tecido muscular é mais suscetível à lesão quando submetido a pressão do que outros tecidos, tendo pouca tolerância à compressão mecânica. O objetivo deste estudo é avaliar e comparar as alterações no parênquima mamário na mamoplastia de aumento subglandular e submuscular, além de avaliar as alterações volumétricas e funcionais da musculatura peitoral após a inserção de implantes no plano submuscular. Cinquenta e oito pacientes do sexo feminino foram randomizadas em dois grupos de estudo, com 24 pacientes cada, e um grupo controle com dez pacientes, de acordo com critérios de inclusão e não inclusão. Das pacientes do grupo de estudo, 24 foram submetidas à mamoplastia de aumento com inserção de implantes no plano suglandular e 24 foram submetidas ao procedimento no plano submuscular. As pacientes do grupo subglandular realizaram análise volumétrica da glândula mamária e as pacientes dos grupos submuscular e controle, além da volumetria mamária, também realizaram volumetria do músculo peitoral maior. A avaliação volumétrica foi realizada no pré-operatório e no pós-operatório, aos seis e 12 meses, por meio de ressonância magnética. Apenas as pacientes do grupo submuscular foram submetidas à avaliação da força muscular, com a utilização de teste isocinético, no pré-operatório e no pós-operatório, aos três, seis e 12 meses. Todas as pacientes estavam sob uso de anticoncepcional oral de baixa dosagem e as pacientes do grupo submuscular permaneceram afastadas de atividades físicas por um período de dois meses no pós-operatório. O grupo subglandular apresentou 22,8% de atrofia da glândula mamária ao final dos 12 meses, enquanto que o grupo submuscular não apresentou atrofia glandular ao final de um ano. O grupo submuscular apresentou atrofia muscular de 49,80% e redução da força muscular em adução após um ano de estudo. Não se observou correlação da forca muscular com a perda volumétrica, assim como não se observou alteração de forca em abdução. Concluímos que a mamoplastia de aumento suglandular causa atrofia do parênquima mamário, enquanto que o procedimento submuscular não causa esta alteração no parênquima mamário após o período de 12 meses pós-operatórios. Em contrapartida, a mamoplastia de aumento submuscular causa atrofia do músculo peitoral maior com diminuição da força muscular em adução após 12 meses de pós-operatório, sem correlação com a alteração de volume muscular.