72 resultados para Conjuntos densificables


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo caracteriza-se como uma pesquisa exploratória-descritiva que busca analisar em uma empresa do ramo da construção civil a dicotomia sofrimento e prazer presente no canteiro de obras no processo de execução de estrutura de um edifício, cujo problema de pesquisa constitui-se em saber quais os fatores que causam sofrimento e prazer no processo de execução de estrutura em uma empresa de construção civil situada no Vale do Sinos. Os dados foram coletados através de entrevistas semi-estruturadas com quinze operários de obra. Para a análise dos dados coletados, utilizou-se a metodologia da análise de conteúdo, na modalidade de análise temática. Os resultados são apresentados em três conjuntos de categorias: dezoito categorias iniciais, posteriormente reagrupadas em dez categorias intermediárias e, por último, sintetizadas nas categorias finais: prazer gerado pelo trabalho em obra, sofrimento gerado pelo trabalho em obra e o significado do trabalho. Os resultados obtidos mostram por que os operários apreciam o trabalho em obra e as dificuldades enfrentadas por eles no canteiro e que são motivo de medo, angústia e ansiedade. Fica claro a importância da interação do grupo de operários a fim de que seja maximizada a produtividade no canteiro, assim como a necessidade do engenheiro de melhorar seu relacionamento 11 com os operários no canteiro com o intuito de aumentar a motivação do operário e sua conseqüente produtividade.Finalmente, constata-se que, mesmo estando presente um trabalho tipicamente taylorista no canteiro, que não privilegia a atividade de concepção nem o espírito criativo do operário, os operários conseguem obter momentos de prazer em seu trabalho, visto que a interação do grupo de operários na obra faz com que gostem do trabalho no canteiro apesar das dificuldades enfrentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem a finalidade de analisar experiências de interação Universidade – Empresa, em projetos do Instituto de Biotecnologia - ( IB ) da Universidade de Caxias do Sul – ( UCS ), a qual, como Instituição produtora e disseminadora de conhecimentos, busca atuar ativamente na transformação tecnológica da Região Nordeste do Estado do RS. Procura-se analisar as experiências de interação entre os pesquisadores da área de biotecnologia da UCS, as empresas do setor produtivo e a comunidade, identificando possíveis mecanismos e problemas. O IB foi criado para que, através dos resultados de suas pesquisas, possa contribuir efetivamente com os anseios da Comunidade a qual está inserida. Este estudo se constitui na análise de múltiplos casos de interação em oito projetos desenvolvidos no IB. Os dados foram coletados através de entrevistas com os coordenadores dos projetos no IB e com os responsáveis pela interação nas organizações parceiras, num total de 16 entrevistas.O estudo evidencia que as interações ocorrem a partir de contatos informais, baseadas na amizade entre os parceiros e oriundas, principalmente, do esforço do pesquisador. Os entrevistados acentuam a necessidade de uso de mecanismos formais de interação para agilizar e viabilizar projetos conjuntos do IB com empresas do setor produtivo e a comunidade, através de parcerias consolidadas. Finalmente, considera-se que, para assegurar o crescimento da interação com a comunidade, é urgente possibilitar, através de mecanismos formais, que a pesquisa científica desenvolvida no Instituto de biotecnologia da UCS volte-se prioritariamente para a identificação de problemas regionais, buscando as respectivas soluções, na perspectiva do desenvolvimento integrado da Região.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa investiga os efeitos dos anúncios comerciais sobre a qualidade visual dos centros de comércio e sobre a legibilidade das mensagens veiculadas por esses elementos, segundo a percepção do pedestre. O objetivo central é determinar subsídios teóricos que possam fundamentar diretrizes a fixação de anúncios comerciais no meio urbano, de modo a garantir a qualidade visual do espaço construído e a legibilidade das mensagens. Adota-se a cidade de Pelotas (RS) como objeto de estudo por possuir em seu centro de comércio questões comuns à maioria das cidades brasileiras: significativa concentração de anúncios comerciais sobre conjuntos arquitetônicos, dentre os quais há bens de interesse histórico e cultural, os quais estão sendo prejudicados em virtude de anúncios comerciais fixados sobre suas fachadas. Os métodos de coleta de dados aplicados neste estudo fazem parte dos utilizados na área de pesquisa relativa ao Ambiente e Comportamento. Fundamentado na natureza das informações necessárias e nas particularidades relativas aos estudos urbanos, os métodos de coleta de dados são sistematizados em duas etapas: o levantamento de arquivo e o levantamento de campo. Esse último divide-se em observações das características físicas, levantamento físico, representação do ambiente urbano e questionários. Cabe destacar que nesta investigação a análise e a comparação dos modos de percepção do ambiente por distintos indivíduos se faz necessária, à medida que os centros de comércio são áreas freqüentadas por diversos tipos de transeuntes. Quanto a isso, define-se ao estudo quatro grupos de usuários: os arquitetos e urbanistas, os publicitários, os comerciantes e os consumidores. Os resultados desta investigação demonstram que os anúncios comerciais quando dispostos desordenadamente sobre o ambiente prejudicam a qualidade visual das cenas urbanas, bem como reduzem o grau de legibilidade das mensagens veiculadas por anúncios comerciais. Fica constatado que não podem ser pensadas diretrizes, relacionadas às características físicas dos anúncios comerciais, que ignorem o aspecto formal do conjunto arquitetônico: é necessário haver normas que visem à ordenação da aparência do ambiente, as quais contemplem os aspectos formais dos anúncios comerciais e das construções. Espera-se que os dados encontrados despertem o interesse ao desenvolvimento de outros estudos que abordem essa problemática, bem como de políticas urbanas de reordenamento e de preservação da aparência dos centros de comércios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir da perspectiva foucaultiana do governo, utilizando-me das ferramentas analíticas de tecnologias de governo e de racionalidades políticas, analiso um conjunto de artigos publicados em revistas especializadas, em anais de encontros científicos, nacionais e internacionais, além de teses, dissertações e trabalhos apresentados em conferências, congressos e em aulas virtuais. Demonstro como a Etnomatemática, enquanto um dispositivo de governo multicultural, operacionaliza-se por meio do exercício do que denominei de tecnologias do multiculturalismo, (re)atualizando modos de governo multiculturais específicos. A análise produz dois conjuntos demonstrativos de tecnologias: Ordenando poder-saber e Esculpindo o eu. No primeiro conjunto, descrevo as tecnologias de Produção de identidades e as de Hierarquização de diferenças, mostrando como elas se constituem em instrumentos de governo, comportam todo um conjunto de níveis de aplicação e de alvos, hierarquizam modos de existência singulares e os fixam em uma identidade etnomatematizada; no segundo, analiso as tecnologias do eu Reflexivo, Sentimental, Cidadão e Livre, demonstrando como o dispositivo etnomatemático governa a subjetividade, põe a funcionar essas tecnologias, combinando-as com variadas técnicas, procedimentos e práticas específicas de governo. Ao concluir esta pesquisa, argumento sobre a produtividade analítica que a perspectiva foucaultiana oferece para, quem sabe, transgredir fronteiras que conformam os indivíduos em uma identidade (re)conhecida e (re)conhecível, criar experiências curriculares e educacionais renovadas pela possibilidade de uma constante atualização de modos de existência para além de uma subjetividade etnomatematizada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho consistiu no pós-tratamento de efluente de reator anaeróbio, em um sistema de reator seqüencial em batelada (RSB), com vistas à remoção biológica de nitrogênio e fósforo. Primeiramente, em escala de laboratório, verificou-se a eficiência de três RSBs, com ciclos operacionais diferenciados, tratando o efluente produzido por um reator seqüencial em batelada anaeróbio (RSBAn), alimentado por esgoto sintético, caracteristicamente doméstico. Neste experimento, também acoplou-se um sistema de aquisição de dados aos RSBs, para monitorar continuamente os parâmetros pH, redox e OD, com o objetivo de obter pontos inferenciais de controle dos processos de nitrificação, desnitrificação e remoção biológica de fósforo. Subseqüente a este experimento, desenvolveu-se um sistema de RSB em escala piloto, tratando o efluente anaeróbio real de um UASB (Upflow Anaerobic Sludge Blanket), no intuito de analisar o efeito da mudança de escala e do tipo de esgoto, que passou de sintético a real, na performance do RSB. No experimento em escala de laboratório, os resultados obtidos demonstraram boas eficiências de remoção de DQO e SS, e uma ótima eficiência no processo de nitrificação. As eficiências médias de remoção de DQO, SS e nitrificação, foram respectivamente de 93,3%, 90,7% e 98,9%. O processo de desnitrificação não desenvolveu-se satisfatoriamente devido às baixas concentrações de matéria orgânica do efluente anaeróbio. O processo de remoção biológica de fósforo, além das baixas DQO afluentes, foi prejudicado pelas idades de lodo extremamente longas estabelecidas nesta fase experimental, em função da aplicação da estratégia de controle de processo baseada na concentração de SSV no licor. Objetivando-se aumentar a concentração de matéria orgânica imediatamente disponível no afluente, com o conseqüente acréscimo de eficiência nos processos de desnitrificação e remoção biológica de fósforo, introduziu-se um pré-fermentador, para gerar metade do efluente anaeróbio a ser tratado nos RSBs. O controle do processo passou a ser efetuado através da aplicação de uma idade de lodo pré-estabelecida de 20 dias. Observou-se um aumento bastante significativo do processo de desnitrificação, atingindo uma eficiência da ordem de 70,4%. No entanto, as maiores concentrações de matéria orgânica solúvel, com a introdução do pré-fermentador, não foram suficientes para estimular o desenvolvimento das bactérias removedoras de fósforo. Um aumento de DQO do esgoto sintético foi necessário para permitir a simultaneidade dos processos de desnitrificação e remoção de fósforo. Porém, apesar de apresentar ciclos operacionais com eficiências de 100% de remoção de fósforo, este processo não mostrou-se confiável, alternando entre fases de boas, médias e más eficiências. Provavelmente as idades de lodo, ainda muito altas para promover a remoção de fósforo do sistema, justificam a permanência bastante irregular na eficiência deste processo. Neste período, a concentração média de DQO necessária para atingir-se uma eficiência satisfatória nos processos conjuntos de nitrificação e desnitrificação, foi de 644,6 mg/L. As seguintes eficiências foram observadas: 95,8% na remoção de DQO, 98,7% na nitrificação, 76,8% na desnitrificação e 74,5% na remoção de nitrogênio. O acompanhamento "on line" de pH, redox e OD mostrou-se como uma eficiente ferramenta inferencial no controle de processos biológicos, principalmente daqueles referentes à remoção de nitrogênio. Dentre os três parâmetros monitorados, o pH apresentouse como o mais representativo. No experimento em escala piloto, o processo de nitrificação não desenvolveu-se possivelmente devido ao efeito conjunto de baixos tempos de detenção nas etapas aeróbias dos ciclos operacionais dos RSBs, com a ação tóxica de sulfetos produzidos no tratamento anaeróbio. O processo de remoção biológica de fósforo, similarmente ao experimento em escala de bancada, não mostrou-se confiável, apresentando períodos alternados de eficiência. Por fim, com vistas a verificar o desenvolvimento de processo inibitório por efluentes de tratamento anaeróbio em sistemas aeróbios, realizou-se uma série de testes de inibição com o efluente anaeróbio e também especificamente com sulfeto. Os testes respirométricos (DBO última e em batelada), foram de essencial importância para analisar a tratabilidade biológica de esgoto contendo composto tóxico. Pôde-se comprovar que o sulfeto, presente no efluente anaeróbio real, ou o efeito de sua combinação com outras substâncias contidas no lodo ativado, alterou a cinética dos processos biológicos desenvolvidos no sistema de tratamento do tipo lodo ativado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa aborda o processo de formação de lideranças empresariais, estabelecendo uma tipologia acerca dos diferentes perfis de liderança verificados na empresa Dana-Albarus S.A. Indústria e Comércio. Objetiva-se analisar, comparativamente, a influência da vida pessoal e profissional na formação de líderes, bem como, o conceito de liderança, privilegiado no grupo Dana-Albarus, à luz das teorias administrativas. Os dados foram coletados com base em entrevistas semiestruturadas, realizadas com seis executivos da empresa Dana-Albarus. Para a análise de dados coletados, utilizou-se a metodologia de análise de conteúdo, na modalidade de análise temática. Os resultados são apresentados em três conjuntos de categorias: as vinte categorias iniciais foram reagrupadas em oito categorias intermediárias e, posteriormente, sintetizadas em quatro categorias finais. A análise subjetiva dos dados levou a compreender, em maior profundidade, o caráter dos executivos, concluindo-se que estes apresentam características de líderes em suas personalidades. A partir deste estudo, pode-se verificar que os executivos sofrem influências positivas e negativas desde sua infância, as quais formarão sua personalidade e, consequentemente, suas atitudes pessoais e profissionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O volume de informações armazenadas e representadas em XML cresce rapidamente, abrangendo desde a Web até bancos de dados corporativos. Nesse contexto, surge a necessidade de mecanismos de recuperação de dados nesse formato que sejam, ao mesmo tempo, mais eficientes e mais eficazes. Várias propostas de linguagens de consulta têm sido feitas, dentre as quais podem ser citadas XQL, XML-QL e Quilt. Essas linguagens, todas textuais, são mais indicadas para manipulação programática ou para usuários experientes. Visando atingir também os usuários menos experientes, foram propostas linguagens visuais, tais como XML-GL e Xing. Todas essas linguagens, entretanto, apresentam duas características comuns: a) o usuário precisa conhecer, pelo menos em um certo nível, a estrutura interna dos documentos; b) a mesma informação, se armazenada de formas diferentes, exige instruções de consulta diferentes. A solução para esses problemas apresentada neste trabalho envolve a utilização de um modelo conceitual para representar os conceitos e as relações entre conceitos que ocorrem em documentos XML pertencentes a um determinado domínio de problema. O modelo conceitual é representado por uma ontologia do domínio do problema. Essa associação permite que consultas possam ser elaboradas tendo como base os conceitos da ontologia. Para permitir a associação da ontologia a conjuntos de documentos XML, apresentam-se regras de mapeamento que permitem definir se um documento XML é compatível com uma determinada ontologia. A partir dessa definição, propõe-se uma linguagem visual para consultas a documentos XML com base em ontologias, e apresenta-se uma proposta de interface visual para essa linguagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos principais desafios para o século XXI é o uso sustentável dos recursos hídricos. A agricultura é a maior usuária desse recurso, sendo responsável por aproximadamente 70% dos gastos globais de água. Para o uso racional da água é necessário o conhecimento das propriedades hidráulicas do solo na condição de não-saturação. A simulação do movimento da água no solo através da modelagem é uma ferramenta importante no entendimento do sistema solo-água-planta, pois permite a previsão e estudo do comportamento da redistribuição da água no solo de maneira eficiente. Porém a forte dependência entre os parâmetros hidráulicos do solo (teor de água, potencial matricial e condutividade hidráulica) fazem da modelagem um assunto complicado, necessitando de modelos numéricos que utilizem intervalos discretos de tempo e espaço. Esses intervalos devem ser suficientemente pequenos para que dentro de um intervalo as variações dos parâmetros hidráulicos sejam insignificantes. Nesta tese é proposto um algoritmo para a descrição do movimento vertical da água no solo, definindo o intervalo de tempo como função de uma variação máxima admissível do teor de água. O algoritmo foi testado para alguns conjuntos de dados hidráulicos de solos, utilizando as condições de contorno de um experimento de perfil instantâneo. A eficiência do algoritmo foi verificada em situações práticas, como na previsão do teor de água na Capacidade de Campo e na predição do tempo para ser atingida determinada condição de umidade no solo. Utilizando o algoritmo, também foram estudados o comportamento da retenção e dos parâmetros de condutividade em relação aos parâmetros de drenagem. Concluiu-se que o algoritmo descreve adequadamente o processo de redistribuição de água no solo utilizando intervalos suficientemente pequenos de tempo e espaço; a forma de discretização do tempo não comprometeu a acurácia das medidas; a previsão do teor de água na Capacidade de Campo e do tempo para ser atingida determinada condição de umidade no solo foram satisfatórias; e o algoritmo permite o estudo das relações entre os parâmetros hidráulicos do solo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O câncer colorretal é um tumor maligno freqüente no mundo ocidental. É o terceiro em freqüência e o segundo em mortalidade nos países desenvolvidos. No Brasil está entre as seis neoplasias malignas mais encontradas e a quinta em mortalidade. Dos tumores colorretais, aproximadamente 40% estão localizados no reto. A sobrevida, em cinco anos, dos pacientes operados por câncer do reto varia entre 40% e 50%, estando os principais fatores prognósticos, utilizados na prática clínica corrente, baseados em critérios de avaliação clínico-patológicos. A avaliação das alterações morfométricas e densimétricas nas neoplasias malignas tem, recentemente, sido estudadas e avaliadas através da análise de imagem digital e demonstrado possibilidades de utilização diagnóstica e prognóstica. A assinatura digital é um histograma representativo de conjuntos de características de textura da cromatina do núcleo celular obtida através da imagem computadorizada. O objetivo deste estudo foi a caracterização dos núcleos celulares neoplásicos no adenocarcinoma primário de reto pelo método da assinatura digital e verificar o valor prognóstico das alterações nucleares da textura da cromatina nuclear para esta doença. Foram avaliados, pelo método de análise de imagem digital, 51 casos de pacientes operados no Hospital de Clínicas de Porto Alegre (HCPA) entre 1988 e 1996 e submetidos à ressecção eletiva do adenocarcinoma primário de reto, com seguimento de cinco anos pós-operatório, ou até o óbito antes deste período determinado pela doença, e 22 casos de biópsias normais de reto obtidas de pacientes submetidos a procedimentos endoscópicos, para controle do método da assinatura digital. A partir dos blocos de parafina dos espécimes estocados no Serviço de Patologia do HCPA, foram realizadas lâminas coradas com hematoxilina e eosina das quais foram selecionados 3.635 núcleos dos adenocarcinomas de reto e 2.366 núcleos dos controles da assinatura digital, totalizando 6.001 núcleos estudados por análise de imagem digital. De cada um destes núcleos foram verificadas 93 características, sendo identificadas 11 características cariométricas com maior poder de discriminação entre as células normais e neoplásicas. Desta forma, através da verificação da textura da cromatina nuclear, foram obtidos os histogramas representativos de cada núcleo ou conjunto de núcleos dos grupos ou subgrupos estudados, também no estadiamento modificado de Dukes, dando origem às assinaturas digitais correspondentes. Foram verificadas as assinaturas nucleares, assinaturas de padrão histológico ou de lesões e a distribuição da Densidade Óptica Total. Houve diferença significativa das características entre o grupo normal e o grupo com câncer, com maior significância para três delas, a Área, a Densidade Óptica Total e a Granularidade nuclear. Os valores das assinaturas médias nucleares foram: no grupo normal 0,0009 e nos estadiamentos; 0,9681 no A, 4,6185 no B, 2,3957 no C e 2,1025 no D e diferiram com significância estatística (P=0,001). A maior diferença do normal ocorreu no subgrupo B de Dukes-Turnbull. As assinaturas nucleares e de padrão histológico mostraram-se distintas no grupo normal e adenocarcinoma, assim como a distribuição da Densidade Óptica Total a qual mostra um afastamento progressivo da normalidade no grupo com câncer. Foi possível a caracterização do adenocarcinoma de reto, que apresentou assinaturas digitais específicas. Em relação ao prognóstico, a Densidade Óptica Total representou a variável que obteve o melhor desempenho, além do estadiamento, como preditor do desfecho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dados são disponibilizados através dos mais distintos meios e com os mais variados níveis de estruturação. Em um nível baixo de estruturação tem-se arquivos binários e no outro extremo tem-se bancos de dados com uma estrutura extremamente rígida. Entre estes dois extremos estão os dados semi-estruturados que possuem variados graus de estruturação com os quais não estão rigidamente comprometidos. Na categoria dos dados semiestruturados tem-se exemplos como o HTML, o XML e o SGML. O uso de informações contidas nas mais diversas fontes de dados que por sua vez possuem os mais diversos níveis de estruturação só será efetivo se esta informação puder ser manejada de uma forma integrada e através de algum tipo de esquema. O objetivo desta dissertação é fornecer um processo para construção de uma ontologia de domínio que haja como esquema representativo de diferentes conjuntos de informação. Estes conjuntos de informações podem variar de dados semi-estruturados a dados estruturados e devem referir-se a um mesmo domínio do conhecimento. Esta proposta permite que qualquer modelo que possa ser transformado no modelo comum de integração possa ser utilizado com entrada para o processo de integração. A ontologia de domínio resultante do processo de integração é um modelo semântico que representa o consenso obtido através da integração de diversas fontes de forma ascendente (bottom-up), binária, incremental, semi-automática e auto-documentável. Diz-se que o processo é ascendente porque integra o modelo que representa a fonte de interesse sobre a ontologia, é binário porque trabalha com dois esquemas a cada integração o que facilita o processo de documentação das integrações realizadas, é incremental porque cada novo esquema de interesse é integrado sobre a ontologia vigente naquele momento, é semiautomático porque considera a intervenção do usuário durante o processo e finalmente é autodocumentável porque durante o processo, toda integração de pares de conceitos semanticamente equivalentes é registrada. O fato de auto-documentar-se é a principal característica do processo proposto e seu principal diferencial com relação a outras propostas de integração. O processo de mapeamento utiliza, dos esquemas de entrada, toda a informação presente ou que possa ser inferida. Informações como se o conceito é léxico ou não, se é raiz e os símbolos que permitem deduzir cardinalidades são consideradas. No processo de integração são consideradas práticas consagradas de integração de esquemas de BDs, na identificação de relacionamentos entre objetos dos esquemas, para geração do esquema integrado e para resolução de conflitos. As principais contribuições desta dissertação são (i) a proposta de um metamodelo capaz de manter o resultado dos mapeamentos e das integrações realizadas e (ii) a especificação de um processo auto-documentável que de sustentação a auditoria do processo de integração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em planejamento de lavra, freqüentemente as campanhas de sondagem são complementadas por falta de segurança nas estimativas. Na maioria dos casos, essas sondagens adicionais são locadas sem o uso de qualquer procedimento matemático que indique os locais mais carentes de informação. Essa dissertação propõe uma metodologia fundamentada em simulação estocástica para tratar esse problema. Com a utilização desse método, é possível que seja considerada a variabilidade entre as informações, além da configuração espacial apresentada. Essa metodologia permite gerar várias estimativas equiprováveis do atributo em questão, reproduzindo o histograma e o variograma das informações originais. A variabilidade apresentada pelos conjuntos de n valores equiprováveis, em cada bloco discretizado da jazida, é medida por meio do cálculo de índices de incerteza. Esses índices são calculados após o processo de simulação estocástica por meio da compilação das n estimativas realizadas para cada bloco. Os índices de incerteza considerados nessa dissertação são: (i) variância condicional; (ii) coeficiente de variação condicional e (iii) intervalo entre quartis. A partir da classificação desses índices de incerteza, são identificados os setores que apresentam as maiores variabilidades em suas estimativas. Com essa classificação é possível a confecção de mapas de incerteza que auxiliam na visualização dos setores/blocos mais variáveis da jazida Nesses setores, são adicionadas informações oriundas da escolha aleatória de um dos n valores equiprováveis disponíveis para cada bloco simulado. Por meio dos índices de incerteza e de acordo com a metodologia, são propostas informações adicionais na área considerada, que contribuem na diminuição das incertezas globais e locais. Essa metodologia usa técnicas extremamente robustas, com embasamento teórico muito consistente, atacando diretamente os setores/blocos que apresentam as maiores flutuabilidades nas estimativas. Um estudo de caso em uma jazida de carvão verifica a aplicabilidade do método. Esse estudo, considera a variabilidade nas estimativas de espessura de uma camada carvão.