8 resultados para Prognóstico baseado em dados

em Biblioteca de Teses e Dissertações da USP


Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste trabalho é apresentar uma técnica automática baseada em morfologia matemática para medida de sinal em imagens de cDNA desenvolvida no BIOINFO,em parceria com o Instituto Ludwig de Pesquisa contra o Câncer. A tecnologia de lâminas de cDNA é um processo baseado em hibridização que possibilita observar a concentração relativa de mRNA de amostras de tecidos analisando a luminosidade de sinais fluorescentes ou radioativos. Hibridização é o processo bioquímico onde duas fitas de ácido nucleico com seqüências complementares se combinam. A técnica apresentada permite o cálculo da expressão gênica com alto grau de automação, podendo o usuário corrigir com facilidade eventuais erros de segmentação. O usuário interage com o programa apenas para selecionar as imagens e inserir os dados de geometria da lâmina. A estratégia de solução usada tem três fases: gradeamento dos blocos, gradeamento dos spots e segmentação dos spots. Todas as fases utilizam filtros morfológicos e as fases de gradeamento possuem um passo final de correção baseado nos dados de geometria da lâmina o que aumenta a robustez do processo, que funciona bem mesmo em imagens ruidosas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Muitos são os benefícios provenientes da arborização de vias públicas, como aumento da vida útil do asfalto por meio do sombreamento, filtragem de poluentes, absorção de CO2, interceptação da água da chuva e da radiação solar e mitigação de ilhas de calor; porém, por questões culturais, é considerada muitas vezes pela população como algo negativo, cujas folhas entopem calhas, raízes destroem calçadas, troncos e folhas atrapalham fiação elétrica e, principalmente, elas estão susceptíveis às quedas. A pesquisa teve como objetivo estudar o comportamento das quedas de árvores no município de Piracicaba/SP, Brasil, com atenção especial ao regime de ventos na cidade, baseado em dados fornecidos pelo Corpo de Bombeiros de Piracicaba, Secretaria de Defesa do Meio Ambiente de Piracicaba (SEDEMA) e Estação Meteorológica da Escola Superior de Agricultura \"Luiz de Queiroz\" (ESALQ). De caráter inédito, o principal resultado foi a relação direta entre quedas e zonas urbanizadas, que, em constantes alterações no uso do solo, acabam por danificar a sustentação das árvores (raízes), fato justificado pela alta concentração de quedas na parte central (36,7%), com destaque para as estações da primavera e do verão, ou seja, ventos e chuvas, na qual, juntas, somaram 78,0% do total. O período de retorno esperado para ventos superiores a 75 km h-1, classificados como temporais na Escala de Vento de Beaufort, foi de 2,8 eventos por ano. Enquanto verificou-se o predomínio de ventos alísios de sudeste, pertencentes ao quarto quadrante, a direção das rajadas de vento teve maior variação e, assim, com predomínio daqueles ventos, é recomendável instalações de parques industriais nas zonas norte, noroeste e oeste, haja vista a importância de evitar que os poluentes adentrem a cidade. As espécies de maior vulnerabilidade foram: Pachira aquatica Aubl. (monguba), Handroanthus sp. (ipê roxo) e Tipuana tipu (Benth.) Kuntze (tipuana). Por meio de simulação microclimática computacional, utilizando o programa ENVI-met versão 3.1, em dois estudos de caso, sendo um em bairro residencial e outro na Praça José Bonifácio, foi possível identificar locais de maior atenção quanto às quedas de árvores, em função da rugosidade do local, capaz de alterar a velocidade e a direção do vento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O câncer de mama é o tipo de câncer mais comumente detectado em mulheres de todo o mundo. Na maioria das pacientes, a causa de morte se deve, principalmente, à doença metastática que pode se desenvolver a partir do tumor primário. O processo metastático envolve uma complexa cascata de eventos, incluindo a quebra organizada dos componentes da matriz extracelular por metaloproteinases de matriz (MMPs). A atividade das MMPs é precisamente regulada por inibidores específicos, os inibidores teciduais das MMPs (TIMPs). Dado seu papel na progressão tumoral, níveis elevados de MMPs têm sido associados com prognóstico desfavorável para pacientes com câncer. Por outro lado, sendo os TIMPs proteínas multifuncionais, níveis elevados de TlMP-1 e de TIMP-2 correlacionam com agressividade do tumor e prognóstico ruim em diferentes tipos de câncer, incluindo o câncer de mama. O gene supressor de metástase RECK codifica uma glicoproteína de membrana capaz de inibir a invasão e a metástase tumoral através da regulação negativa da atividade de MMPs envolvidas em carcinogênese: MMP-2, MMP-9 e MMP-14 (MT1-MMP). A fim de analisar o papel das MMPs e de seus inibidores (TIMPs e RECK) na progressão tumoral do câncer de mama, o perfil de expressão destes genes foi detectado, através de ensaios de Real-Time PCR, em um painel de cinco linhagens celulares de carcinoma de mama humano com diferentes potenciais invasivos e metastáticos e em 72 amostras teciduais de tumores primários de mama e 30 amostras teciduais de borda normal adjacente ao tumor. O perfil de expressão protéica de RECK foi avaliado em 236 amostras de tumores primários de mama através de ensaios de Tissue Microarray. Além disso, a atividade proteolítica das MMPs foi detectada em ensaios de Zimografia. Os resultados obtidos indicam que a progressão do câncer de mama humano está relacionada com um aumento dos níveis de expressão das MMPs e de seus inibidores específicos. O aumento dos níveis de expressão dos TIMPs parece estar relacionado ao seu papel como proteína multifuncional que pode estar funcionando de maneira a promover, mais do que suprimir, a progressão tumoral. Níveis elevados da expressão protéica de RECK estão associados com pior prognóstico. No entanto, para pacientes em estádios clínicos avançados, altos níveis de expressão de RECK podem estar correlacionados com melhor prognóstico, dependendo do balanço MMP/inibidor. Os níveis de expressão das MMPs apresentaram correlação positiva em relação aos níveis de expressão de seus inibidores específicos, sugerindo a existência de fatores e vias de sinalização comuns envolvidas na regulação coordenada destes genes. Além disso, a síntese do inibidor pode estar relacionada a uma resposta celular ao aumento da expressão e atividade de proteases. O balanço transcricional enzima/inibidor favorece a enzima nas amostras tumorais e, de modo contrário, o inibidor específico nas amostras de borda normal, sugerindo o balanço como o principal fator na determinação da degradação da MEC em processos invasivos e metastáticos. Os resultados obtidos podem contribuir para um melhor entendimento da complexidade dos mecanismos envolvidos na metástase do câncer de mama.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os sistemas elétricos de potência modernos apresentam inúmeros desafios em sua operação. Nos sistemas de distribuição de energia elétrica, devido à grande ramificação, presença de extensos ramais monofásicos, à dinâmica das cargas e demais particularidades inerentes, a localização de faltas representa um dos maiores desafios. Das barreiras encontradas, a influência da impedância de falta é uma das maiores, afetando significativamente a aplicação dos métodos tradicionais na localização, visto que a magnitude das correntes de falta é similar à da corrente de carga. Neste sentido, esta tese objetivou desenvolver um sistema inteligente para localização de faltas de alta impedância, o qual foi embasado na aplicação da técnica de decomposição por componentes ortogonais no pré-processamento das variáveis e inferência fuzzy para interpretar as não-linearidades do Sistemas de Distribuição com presença de Geração Distribuída. Os dados para treinamento do sistema inteligente foram obtidos a partir de simulações computacionais de um alimentador real, considerando uma modelagem não-linear da falta de alta impedância. O sistema fuzzy resultante foi capaz de estimar as distâncias de falta com um erro absoluto médio inferior a 500 m e um erro absoluto máximo da ordem de 1,5 km, em um alimentador com cerca de 18 km de extensão. Tais resultados equivalem a um grau de exatidão, para a maior parte das ocorrências, dentro do intervalo de ±10%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A redução da mortalidade é um objetivo fundamental das unidades de terapia intensiva pediátrica (UTIP). O estágio de gravidade da doença reflete a magnitude das comorbidades e distúrbios fisiológicos no momento da internação e pode ser avaliada pelos escores prognósticos de mortalidade. Os dois principais escores utilizados na UTIP são o Pediatric Risk of Mortality (PRISM) e o Pediatric Index of Mortality (PIM). O PRISM utiliza os piores valores de variáveis fisiológicas e laboratoriais nas primeiras 24 horas de internação enquanto o PIM2 utiliza dados da primeira hora de internação na UTIP e apenas uma gasometria arterial. Não há consenso na literatura, entre PRISM e PIM2, quanto à utilidade e padronização na admissão na terapia intensiva para as crianças e adolescentes, principalmente em uma UTI de nível de atendimento terciário. O objetivo do estudo foi estabelecer o escore de melhor performance na avaliação do prognóstico de mortalidade que seja facilmente aplicável na rotina da UTIP, para ser utilizado de forma padronizada e contínua. Foi realizado um estudo retrospectivo onde foram revisados os escores PRISM e PIM2 de 359 pacientes internados na unidade de terapia intensiva pediátrica do Instituto da Criança do Hospital das Clínicas da Faculdade de Medicina da USP, considerada uma unidade de atendimento de nível terciário. A mortalidade foi de 15%, o principal tipo de admissão foi clinico (78%) sendo a principal causa de internação a disfunção respiratória (37,3%). Os escores dos pacientes que foram a óbito mostraram-se maiores do que o dos sobreviventes. Para o PRISM foi 15 versus 7 (p = 0,0001) e para o PIM2, 11 versus 5 (p = 0,0002), respectivamente. Para a amostra geral, o Standardized Mortality Ratio (SMR) subestimou a mortalidade tanto para o PIM2 quanto para o PRISM [1,15 (0,84 - 1,46) e 1,67 (1,23 - 2,11), respectivamente]. O teste de Hosmer-Lemeshow mostrou calibração adequada para ambos os escores [x2 = 12,96 (p = 0,11) para o PRISM e x2 = 13,7 (p = 0,09) para o PIM2]. A discriminação, realizada por meio da área sob a curva ROC, foi mais adequada para o PRISM do que para o PIM2 [0,76 (IC 95% 0,69 - 0,83) e 0,65 (IC 95% 0,57 - 0,72), respectivamente, p= 0,002]. No presente estudo, a melhor sensibilidade e especificidade para o risco de óbito do PRISM foi um escore entre 13 e 14, mostrando que, com o avanço tecnológico, o paciente precisa ter um escore mais elevado, ou seja, maior gravidade clínica do que a população original, para um maior risco de mortalidade. Os escores de gravidade podem ter seus resultados modificados em consequência: do sistema de saúde (público ou privado), da infraestrutura da UTIP (número de leitos, recursos humanos, parque tecnológico) e indicação da internação. A escolha de um escore de gravidade depende das características individuais da UTIP, como o tempo de espera na emergência, presença de doença crônica complexa (por exemplo, pacientes oncológicos) e como é realizado o transporte para a UTIP. Idealmente, estudos multicêntricos têm maior significância estatística. No entanto, estudos com populações maiores e mais homogêneas, especialmente nos países em desenvolvimento, são difíceis de serem realizados

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho aborda a aplicação da técnica de reconciliação de dados para o balanço da movimentação de gás natural em uma malha de escoamento de gás não processado, elaborando também um método de cálculo rápido de inventário de um duto. Foram aplicadas, separadamente, a reconciliação volumétrica à condição padrão de medição e a reconciliação mássica, bem como realizadas comparações dos resultados em relação ao balanço original e verificação do balanço resultante de energia em termos de poder calorífico superior. Dois conjuntos de pesos foram aplicados, um arbitrado de acordo com o conhecimento prévio da qualidade do sistema de medição de cada um dos pontos, outro baseado no inverso da variância dos volumes diários apurados no período. Ambos apresentaram bons resultados e o segundo foi considerado o mais apropriado. Por meio de uma abordagem termodinâmica, foi avaliado o potencial impacto, ao balanço, da condensação de parte da fase gás ao longo do escoamento e a injeção de um condensado de gás natural não estabilizado por uma das fontes. Ambos tendem a impactar o balanço, sendo o resultado esperado um menor volume, massa e energia de fase gás na saída. Outros fatores de considerável impacto na qualidade dos dados e no resultado final da reconciliação são a qualidade da medição de saída do sistema e a representatividade da composição do gás neste ponto. O inventário é calculado a partir de uma regressão que se baseia em um regime permanente de escoamento, o que pode apresentar maior desvio quando fortes transientes estão ocorrendo no último dia do mês, porém a variação de inventário ao longo do mês possui baixo impacto no balanço. Concluiu-se que a reconciliação volumétrica é a mais apropriada para este sistema, pois os dados reconciliados levam os balanços mássicos e de energia em termos de poder calorífico, ambos na fase gás, para dentro do perfil esperado de comportamento. Embora um balanço volumétrico nulo apenas da fase gás não seja por si só o comportamento esperado quando se considera os efeitos descritos, para desenvolver um balanço mais robusto é necessário considerar as frações líquidas presentes no sistema, agregando maior dificuldade na aquisição e qualidade dos dados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar o impacto dos Sistemas de Gestão Integrados (SGI) no desempenho organizacional sob a óptica do Triple Bottom Line (TBL), verificando se esta implementação auxilia a empresa a se tornar mais sustentável. A abordagem multi-método utilizada está dividida em três partes. A primeira compreende uma revisão sistemática da literatura, tendo como base a abordagem bibliométrica. A base de dados escolhida para a seleção dos artigos que compõem a amostra foi a ISI Web of Knowledge (Web of Science). As análises conduzidas sugerem lacunas na literatura a serem pesquisadas de modo a relacionar a integração dos sistemas de gestão como meio para as organizações tornarem-se mais sustentáveis, auxiliando assim na elaboração de um modelo teórico e das hipóteses de pesquisa. Os resultados parciais obtidos ressaltam a lacuna na literatura de estudos nessa área, principalmente que contemplem a dimensão social do Triple Bottom Line. Lacunas na literatura foram identificadas também no que se refere à análise do impacto da adoção dessas abordagens normativas no desempenho organizacional. A segunda etapa da metodologia é composta por estudos de casos múltiplos em empresas de diferentes setores e que tenham implantado sistemas de gestão de maneira integrada. Os resultados obtidos mostram que a certificação auxilia no desenvolvimento de ações sustentáveis, resultando em impactos econômicos, ambientais e sociais positivos. Nesta etapa, testou-se o modelo e as hipóteses levantadas na abordagem bibliométrica. A terceira etapa da metodologia é composta por análises estatísticas de dados secundários extraídos da revista Exame ?Maiores e Melhores\'. Os dados do ano de 2014 das empresas foram tratados por meio do software MINITAB 17 ®. Por meio do teste de mediana de mood, as amostras foram testadas e apresentaram diferenças estatisticamente significativas para o desempenho das empresas em diferentes setores. De maneira geral, as empresas com SGI apresentam melhor desempenho econômico do que as demais. Com a mesma base de dados, utilizando o modelo de equações estruturais e o software Smart PLS 2.0, criou-se um diagrama de caminhos analisando os constructos (SGI) com variáveis de desempenho (Endividamento, Lucratividade, Patrimônio, Crescimento e Retorno). O modelo de equações estruturais testado apresentou força para a relação entre SGI com Endividamento, Lucratividade, Patrimônio e Crescimento. As diferentes metodologias apresentadas contribuíram para responder a hipótese e afirmar com base na amostra deste trabalho que o SGI leva as empresas a terem melhor desempenho econômico, ambiental e social (baseado no TBL).