10 resultados para Semi-open tube

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O câncer renal corresponde a aproximadamente 3% dos tumores malignos do adulto, sendo a terceira malignidade urológica mais comum. Os tratamentos sistêmicos disponíveis para pacientes portadores de carcinoma renal avançado são, via de regra, pouco eficazes e sem um impacto definido na sobrevida. Portanto, torna-se imperioso que novos agentes e/ou estratégias terapêuticas para esta enfermidade sejam desenvolvidas. O derivado das epipodolofilotoxinas, etoposide, tem sido utilizado com sucesso no tratamento de vários tipos de tumores sólidos e hematológicos. Este agente exerce a sua ação antitumoral através da inibição da enzima nuclear topoisomerase II. Estudos recentes demonstraram que o efeito citotóxico in vitro deste agente é bem mais pronunciado quando as linhagens tumorais são expostas à droga por um tempo mais prolongado. Isto vem sendo confirmado em estudos clínicos, nos quais foi documentado um aumento significativo no percentual de respostas tumorais objetivas em pacientes com câncer avançado tratados com etoposide em doses repetidas diárias de forma continuada, comparativamente a pacientes que receberam pulsos de doses altas da droga a intervalos mais longos. Infelizmente, estudos iniciais com etoposide não revelaram uma atividade antitumoral significativa em pacientes com câncer renal avançado. Por esta razão, os estudos preliminares explorando o potencial terapêutico de seu análogo teniposide nesta doença também não receberam a devida atenção na literatura. Entretanto, este análogo possui potenciais vantagens terapêuticas em relação ao etoposide, uma vez que apresenta um tempo de retenção intracelular mais prolongado em linhagens de tumores sólidos in vitro. Estas observações nos estimularam a reconsiderar o estudo do potencial citotóxico do teniposide em modelos experimentais de câncer renal avançado. Nesta dissertação, foram estudados vários protocolos de administração de teniposide em linhagens de câncer renal humano, uma vez que esta neoplasia carece de drogas ativas disponíveis no armamentário terapêutico. Foram utilizadas as linhagens celulares RXF-393, A-498 e TK-10, as quais foram incubadas com teniposide em concentrações pré-determinadas e tempos de incubação variáveis. Além disto, foram feitos experimentos em que protocolos de administração de teniposide como agente único foram comparados a protocolos em que o mesmo foi combinado com agentes que bloqueiam a ação da glicoproteína P, responsável pelo efluxo ativo da droga do interior da célula tumoral. Além disso, foram também estudados protocolos incluindo a associação de teniposide com agentes que interferem com a síntese do DNA. Para os estudos de avaliação de citotoxicidade dos agentes quimioterápicos, os mesmos foram pré-incubados por 24 h na ausência ou presença do inibidor da DNA polimerase α afidicolina glicinada (0,2 µM) ou do inibidor da ribonucleotídeo redutase hidroxiuréia (200 µM) e após incubados por diferentes tempos de exposição com diluições seriadas de teniposide. Os efeitos citotóxicos foram avaliados através do método colorimétrico com sulforodamina B (SRB). Os protocolos de exposição prolongada das células ao teniposide mostraram um aumento significativo na sua citotoxicidade nas linhagens RXF-393, A-498 e TK-10, sugerindo que a citotoxicidade do teniposide é dependente de tempo de administração. Neste sentido, uma maior taxa de dano no DNA foi observada nas células expostas ao teniposide por tempos de administração mais prolongados. Curiosamente, os diferentes tempos de exposição ao teniposide não influenciaram de forma clara na formação de complexos DNA-topoisomerase II, nem nas medidas da atividade desta enzima. O uso concomitante de agentes moduladores da glicoproteína P como o verapamil, a ciclosporina A e o tamoxifeno não produziu potencialização do efeito antiproliferativo do teniposide. Por sua vez, os tratamentos com agentes que interferem na síntese de DNA, como a afidicolina glicinada ou a hidroxiuréia, potencializaram a citotoxicidade do teniposide em todas as linhagens estudadas, seguindo as características intrínsecas de cada linhagem. Em conclusão, os resultados apresentados nesta dissertação sugerem que o teniposide apresenta um maior efeito citotóxico em protocolos de administração prolongada em combinação com agentes inibidores da síntese de DNA. Frente a estes resultados iniciais, o teniposide será testado nos protocolos de administração acima mencionados em um painel contendo um maior número de linhagens tumorais in vitro. Uma vez confirmadas as observações acima descritas, serão iniciados estudos em modelos tumorais in vivo. Estes estudos servirão de base nas decisões quanto à reavaliação clínica do teniposide em ensaios de fase I em pacientes com neoplasias avançadas refratárias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dados são disponibilizados através dos mais distintos meios e com os mais variados níveis de estruturação. Em um nível baixo de estruturação tem-se arquivos binários e no outro extremo tem-se bancos de dados com uma estrutura extremamente rígida. Entre estes dois extremos estão os dados semi-estruturados que possuem variados graus de estruturação com os quais não estão rigidamente comprometidos. Na categoria dos dados semiestruturados tem-se exemplos como o HTML, o XML e o SGML. O uso de informações contidas nas mais diversas fontes de dados que por sua vez possuem os mais diversos níveis de estruturação só será efetivo se esta informação puder ser manejada de uma forma integrada e através de algum tipo de esquema. O objetivo desta dissertação é fornecer um processo para construção de uma ontologia de domínio que haja como esquema representativo de diferentes conjuntos de informação. Estes conjuntos de informações podem variar de dados semi-estruturados a dados estruturados e devem referir-se a um mesmo domínio do conhecimento. Esta proposta permite que qualquer modelo que possa ser transformado no modelo comum de integração possa ser utilizado com entrada para o processo de integração. A ontologia de domínio resultante do processo de integração é um modelo semântico que representa o consenso obtido através da integração de diversas fontes de forma ascendente (bottom-up), binária, incremental, semi-automática e auto-documentável. Diz-se que o processo é ascendente porque integra o modelo que representa a fonte de interesse sobre a ontologia, é binário porque trabalha com dois esquemas a cada integração o que facilita o processo de documentação das integrações realizadas, é incremental porque cada novo esquema de interesse é integrado sobre a ontologia vigente naquele momento, é semiautomático porque considera a intervenção do usuário durante o processo e finalmente é autodocumentável porque durante o processo, toda integração de pares de conceitos semanticamente equivalentes é registrada. O fato de auto-documentar-se é a principal característica do processo proposto e seu principal diferencial com relação a outras propostas de integração. O processo de mapeamento utiliza, dos esquemas de entrada, toda a informação presente ou que possa ser inferida. Informações como se o conceito é léxico ou não, se é raiz e os símbolos que permitem deduzir cardinalidades são consideradas. No processo de integração são consideradas práticas consagradas de integração de esquemas de BDs, na identificação de relacionamentos entre objetos dos esquemas, para geração do esquema integrado e para resolução de conflitos. As principais contribuições desta dissertação são (i) a proposta de um metamodelo capaz de manter o resultado dos mapeamentos e das integrações realizadas e (ii) a especificação de um processo auto-documentável que de sustentação a auditoria do processo de integração.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho se propõe um avanço para a Técnica Transformada Integral Generalizada, GITT. O problema transformado, usualmente resolvido por subrotinas numéricas, é aqui abordado analiticamente fazendo-se uso da Transformada de Laplace. Para exemplificar o uso associado destas duas transformadas integrais, resolvem-se dois problemas. Um de concentração de poluentes na atmosfera e outro de convecção forçada com escoamento laminar, entre placas planas paralelas, com desenvolvimento simultâneo dos perfis térmico e hidrodinâmico. O primeiro é difusivo, transiente e com coeficientes variáveis. Sua solução é obtida de forma totalmente analítica. Além de mostrar o uso da técnica, este exemplo apesar de ter coeficientes variáveis, é resolvido com o auxílio de um problema de autovalores associado com coeficientes constantes. No segundo, obtém-se a solução da Equação da Energia analiticamente. Já a Equação da Conservação do Momentum é linearizada e resolvida de forma iterativa. A solução de cada iteração é obtida analiticamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é desenvolvida uma solução semi-analítica para a Equação de Langevin assintótica (Equação de Deslocamento Aleatório) aplicada à dispersão de poluentes na Camada Limite Convectiva (CLC). A solução tem como ponto de partida uma equação diferencial de primeira ordem para o deslocamento aleatório, sobre a qual é aplicado o Método Iterativo de Picard. O novo modelo é parametrizado por um coeficiente de difusão obtido a partir da Teoria de Difusão Estatística de Taylor e de um modelo para o espectro de turbulência, assumindo a supersposição linear dos efeitos de turbulência térmica e mecânica. A avaliação do modelo é realizada através da comparação com dados de concentração medidos durante o experimento de dispersão de Copenhagen e com resultados obtidos por outros quatro modelos: modelo de partículas estocástico para velocidade aleatória (Modelo de Langevin), solução analítica da equação difusão-advecção, solução numérica da equação difusão-advecção e modelo Gaussiano. Uma análise estatística revela que o modelo proposto simula satisfatoriamente os valores de concentração observados e apresenta boa concordância com os resultados dos outros modelos de dispersão. Além disso, a solução através do Método Iterativo de Picard pode apresentar algumas vantagem em relação ao método clássico de solução.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os critérios de outorga adotados nas legislações dos estados inseridos no semi-árido - a fim de regulamentar a vazão de referência a partir de açudes - tem se baseado simplesmente em volumes (vazões) associados a níveis de confiabilidade de atendimento à demanda, não estabelecendo políticas operacionais que tornem seus usos menos vulneráveis às falhas prolongadas e concentradas que são comuns à região. Este trabalho tem o objetivo de avaliar as vazões de referência segundo as políticas de operação (PO) padrão e volumes de alerta. A primeira é uma operação menos arrojada se comparada com a segunda. Isto decorre do fato que na primeira não há maiores preocupações com a vulnerabilidade nos períodos de falha. Já a política de operação baseada em volumes de alerta assegura que na pior situação um suprimento mínimo será realizado. Foi elaborado um modelo de simulação com sub-tarefas de operação de reservatório, operação de projetos hidroagrícolas, operação de atendimento às demandas, avaliação econômica dos déficits e fornecimento de indicadores para subsidiar as avaliações. Dentre os indicadores fornecidos pelo modelo destacam-se: confiabilidade mensal da demanda primária, confiabilidade mensal da demanda secundária, confiabilidade anual do sucesso da atividade agrícola, anuidade equivalente dos custos de falha na demanda primária, anuidade equivalente dos benefícios líquidos da agricultura, anuidade líquida equivalente e total evaporado. Diante da análise de tais indicadores chegou-se à conclusão de que a PO volumes de alerta apresentou resultados superiores à operação padrão. O fato de assegurar o suprimento durante os longos e concentrados períodos de falha gera uma economia que não é superada pelo incremento de água oferecido pela PO padrão.Constatou-se também que a PO padrão coloca todas as categorias de demanda sob o mesmo patamar de vulnerabilidade, enquanto que na PO volumes de alerta as cotas são oferecidas com garantias diferenciadas, sendo mais atraentes do ponto de vista do gerenciamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Realizou-se a dedução de um formalismo básico, útil para o desenvolvimento de novas implementações semi-empíricas, partindo de primeiros princípios. A abordagem utilizada é inspirada nos métodos da família HAM, e visa possibilitar o desenvolvimento de uma implementação semi-empírica de última geração que não esteja sujeita às di culdades que ocorrem com métodos da família ZDO. São apresentadas as expressões para a energia total e para os elementos da matriz de Fock segundo este formalismo básico. O emprego de expoentes variáveis nas funções de base (orbitais atômicos) é proposto e modelado com esquemas tipo HAM/3, HAM/4 e polinomial, tomando-se como referência resultados obtidos por cálculo ab initio. Além disso, uma contribuição para produção de conjuntos de dados de referência por cálculo ab initio é fornecida. Esta contribuição permite que sejam produzidos resultados de alto nível para energias eletrônicas a um custo computacional moderado, por meio da extrapola- ção da energia de correlação eletrônica em cálculos com bases correlation consistent de Dunning.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho visa o uso da função de Green de valor inicial no ajuste geostrófico e do método Semi-Lagrangeano na integração de um modelo acoplado oceano-atmosfera descrito pelas equações de águas rasas. O ajuste geostrófico é considerado atravées de perturbações na pressão e do vento. No caso de sistemas sem rotação, é discutida a relação da equação hidrostática com ondas longas não-dispersivas. Com rotação, a conservação da vorticidade potencial permite escolher a elevação correspondente a um estado de equilíbrio geostrófico. O sistema de equações de águas rasas é desacoplado em equações de Klein-Gordon com valores iniciais e termos não-homogêneos acoplados. A resposta dinâmica formada pela resposta transiente e a resposta forçada é obtida para uma perturbação inicial da elevação. A ação do vento como forçante nas equações de momento 2D, através do transporte de Eckman, conduz a uma equação de águas rasas forçada. Uma decomposição da resposta forçada é realizada com uma resposta permanente, que satisfaz a equação de Helmholtz , e com o uso da base dinâmica gerada pela resposta impulso. Um modelo hidrodinâmico 3D introduzido por Casulli e governado por equações não-lineares de águas rasas é integrado na vertical para a obtenção de um modelo 2D. Com isto, as condições de contorno devido a tensão do vento e a fricção devido a topografia do fundo, transformam-se em forçantes do modelo. O modelo foi integrado com um método semi-implícito em diferenças finitas, utilizando-se o método Semi-Lagrangeano para a parte advectiva. Simulações simbólicas foram realizadas para o ajuste geostrófico devido a perturbações de duração infinita e finita para a elevação e para o efeito da tensão do vento. Foram realizadas simulações numéricas para variadas geometrias, em particular a Baia de Guanabara e a Lagoa do Patos.