47 resultados para Ferramentas digitais


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento de novos, e mais eficientes, métodos de classificação de imagem digitais em Sensoriamento Remoto se constitui em uma importante área que tem chamado a atenção de muitos pesquisadores. Nesta área em particular, um problema que freqüentemente surge para a classificação de imagens digitais provenientes de cenas naturais, é a ocorrência de classes espectrais com resposta espectral muito similar. Nestes casos, os sistemas sensores mais comuns e os métodos tradicionais de classificação de imagem apresentam muito baixa precisão ou mesmo falham completamente. Várias abordagens vem sendo propostas na literatura. Uma das possíveis abordagens consiste em fazer uso de informações auxiliares que possuam poder discriminante para as classes sob análise. Esta é a possibilidade explorada nesta dissertação, utilizar-se de dados auxiliares, provenientes de fontes diversas, tais como: temperatura, precipitação, altitude e classes de solo. Estes dados são então combinados com dados provenientes de imagens multiespectrais de acordo com a Teoria de Evidência proposta por Dempster e Shafer. Esta abordagem é testada usando dados de uma área no Estado do Rio Grande do Sul, Brasil, com a finalidade de delimitar a ocorrência da Mata Nativa com Araucária (composta pela conifera Araucaria angustifolia), que é de difícil separação em relação a outras classes espectrais que ocorrem na região, tornando difícil o processo preciso de classificação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The evolution of integrated circuits technologies demands the development of new CAD tools. The traditional development of digital circuits at physical level is based in library of cells. These libraries of cells offer certain predictability of the electrical behavior of the design due to the previous characterization of the cells. Besides, different versions of each cell are required in such a way that delay and power consumption characteristics are taken into account, increasing the number of cells in a library. The automatic full custom layout generation is an alternative each time more important to cell based generation approaches. This strategy implements transistors and connections according patterns defined by algorithms. So, it is possible to implement any logic function avoiding the limitations of the library of cells. Tools of analysis and estimate must offer the predictability in automatic full custom layouts. These tools must be able to work with layout estimates and to generate information related to delay, power consumption and area occupation. This work includes the research of new methods of physical synthesis and the implementation of an automatic layout generation in which the cells are generated at the moment of the layout synthesis. The research investigates different strategies of elements disposition (transistors, contacts and connections) in a layout and their effects in the area occupation and circuit delay. The presented layout strategy applies delay optimization by the integration with a gate sizing technique. This is performed in such a way the folding method allows individual discrete sizing to transistors. The main characteristics of the proposed strategy are: power supply lines between rows, over the layout routing (channel routing is not used), circuit routing performed before layout generation and layout generation targeting delay reduction by the application of the sizing technique. The possibility to implement any logic function, without restrictions imposed by a library of cells, allows the circuit synthesis with optimization in the number of the transistors. This reduction in the number of transistors decreases the delay and power consumption, mainly the static power consumption in submicrometer circuits. Comparisons between the proposed strategy and other well-known methods are presented in such a way the proposed method is validated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é desenvolvida uma metodologia de projeto para identificar as regiões críticas da estrutura de um reboque de linha leve sendo tracionado em pavimentos do tipo rodovia de baixa qualidade e estrada secundária de muito baixa qualidade. Para tanto, são levantados alguns dados experimentais da estrutura, necessários para a aproximação e simulação dinâmica de um modelo simplificado. A excitação da base é realizada por atuadores que simulam as oscilações verticais de um perfil de estrada, a qual é definida de acordo com os estudos realizados por Dodds e Robson (1973). Isto permite a determinação de um histórico de carregamentos das regiões da estrutura do chassi sob a ação das molas da suspensão. Em seguida, é gerado um modelo estrutural simplificado do reboque em elementos finitos, chamado de global, no qual são determinadas as regiões sob ação das maiores tensões. Tendo identificada a região mais crítica da estrutura, é criado um modelo local desta parte, onde se pode observar a distribuição de tensões com mais detalhe, permitindo a identificação dos pontos de concentração de tensões. Desta forma, com a aplicação do método de análise global-local é possível a obtenção de resultados detalhados quanto aos esforços da estrutura com um menor custo computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo o estudo e a integração, como forma de validação, de ferramentas de software livre para o uso em Gerência e Monitoração de Redes de computadores. Com o crescimento das redes surgiu a necessidade por controle de seus recursos. Desta necessidade foi criado o protocolo SNMP, utilizado nos dias de hoje como padrão de fato na gerência e monitoração de redes. Anteriormente ao surgimento do Software Livre, para a atividade de gerência e monitoração, existiam apenas produtos proprietários, os quais estavam restritos a poucas empresas que podiam arcar com seus custos. Com o surgimento do Software Livre, ferramentas simples de gerência e monitoração começaram a ser criadas. Estas ferramentas simples necessitam ser integradas de forma a prover maior quantidade de recursos. O método proposto desenvolve um protótipo capaz de integrar várias ferramentas de gerência e monitoração utilizando exclusivamente ferramentas de Software Livre. E para demonstrar a idéia na prática, um Estudo de Caso é apresentado utlizando o protótipo desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o advento dos sensores hiperespectrais se tornou possível em sensoriamento remoto, uma serie de diferentes aplicações. Uma delas, é a possibilidade de se discriminar classes com comportamentos espectrais quase idênticas. Porém um dos principais problemas encontrados quando se trabalha com dados de alta dimensionalidade, é a dificuldade em estimar os inúmeros parâmetros que se fazem necessários. Em situações reais é comum não se ter disponibilidade de tamanho de amostra suficiente, por exemplo, para se estimar a matriz de covariâncias de forma confiável. O sensor AVIRIS fornece uma riqueza de informações sobre os alvos, são 224 bandas cobrindo o espectro eletromagnético, o que permite a observação do comportamento espectral dos alvos de forma muito detalhada. No entanto surge a dificuldade de se contar com uma amostra suficiente para se estimar a matriz de covariâncias de uma determinada classe quando trabalhamos com dados do sensor AVIRIS, para se ter uma idéia é preciso estimar 25.200 parâmetros somente na matriz de covariâncias, o que necessitaria de uma amostra praticamente impraticável na realidade. Surge então a necessidade de se buscar formas de redução da dimensionalidade, sem que haja perda significativa de informação. Esse tipo de problema vem sendo alvo de inúmeros estudos na comunidade acadêmica internacional. Em nosso trabalho pretendemos sugerir a redução da dimensionalidade através do uso de uma ferramenta da geoestatística denominada semivariograma. Investigaremos se os parâmetros calculados para determinadas partições do transecto de bandas do sensor AVIRIS são capazes de gerar valores médios distintos para classes com comportamentos espectrais muito semelhantes, o que por sua vez, facilitaria a classificação/discriminação destas classes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o monitoramento da expansão das áreas urbanas e a análise da sua interação com o meio físico têm sido um grande desafio para os técnicos de planejamento urbano. No Brasil, em especial, dada a velocidade com que o fenômeno se processa e graças a um crescimento desordenado das cidades nas últimas décadas, esses estudos, que envolvem um elevado número de informações, tem exigido decisões e diagnósticos urbanos cada vez mais rápidos. Esta dissertação propõe uma metodologia para o planejamento racional do uso do solo urbano através do emprego integrado de tecnologias recentes como Sistema de Informações Geográficas (SIG), Modelagem Numérica do Terreno (MNT) e Sensoriamento Remoto através de imagens orbitais. Para isso, são implementados no SIG desenvolvido pelo INPE dados provenientes de cartas topográficas, de mapas temáticos do meio físico e de imagens orbitais LANSAT/TM da região estudada. A partir desses dados iniciais são geradas, também num SIG, outras informações com objetivo de estudar a evolução da área urbana, identificar áreas com suscetibilidade preliminar à erosão laminar, áreas com restrição ao uso urbano e áreas de eventos perigosos e riscos. o trabalho apresenta inicialmente uma revisão bibliográfica sobre a aplicação de Sensoriamento Remoto, Modelagem Numérica do Terreno (MNT) e Sistema de Informações Geográficas (SIG) em estudos urbanos. Segue-se a conceituação e aspectos teóricos dessas três ferramentas básicas utilizadas. A metodologia propriamente dita traz os planos de informações originais e as suas respectivas fontes de informações, os processos de classificação de imagens digitais empregados e os modelos de cruzamentos desenvolvidos para um SIG. A área teste escolhida é a sub-bacia do Arroio Feijó, localizada na região metropolitana de Porto Alegre, na porção centro-leste do Estado do Rio Grande do Sul. A região é caracterizada por uma elevada densidade populacional, pela presença de áreas inundáveis e pela ocorrência de processos eroslVOS. Os resultados mostram que a metodologia proposta é adequada e eficiente para agilizar as atividades de planejamento urbano, subsidiando a elaboração de Planos Diretores de Desenvolvimento Integrado e orientando o crescimento das cidades para regiões mais favoráveis. Além disso, contribui para a prevenção de parcela dos riscos e problemas geotécnicos relacionados ao meio físico nas áreas urbanas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho desenvolvemos um texto hipermídico sobre ótica para o ensino médio. Nele abordamos tópicos de ótica geométrica e ótica física, com o uso intensivo de tecnologias da informação, abrangendo a exploração de simuladores (Java Applets), de imagens e animações, acompanhadas de textos teóricos explicativos. Para o material, geramos 77 animações e 63 imagens, e adaptamos 13 simuladores Java Applets, organizados em material interativo desenvolvido em linguagem html e disponibilizado em CD-ROM. O embasamento teórico do trabalho é dado pelas teorias construtivistas cognitivistas, aproveitando as idéias de Piaget, Vygostky, Rogers, Ausubel e Novak. O Material foi aplicado em uma turma de 3a série do ensino médio no Centro de Ensino Médio – SETREM, localizada na região Noroeste do RS. Com este material conseguimos desenvolver os conteúdos de uma forma mais atrativa, com maior envolvimento dos alunos e maior motivação por parte dos mesmos, fazendo com que se sentissem participantes ativos na aquisição de informações e construção do conhecimento. Ao aplicarmos o material, observamos que as novas tecnologias usadas são boas ferramentas auxiliares no processo ensino/aprendizagem de ótica no ensino médio, que devem ser aliadas aos demais recursos didáticos existentes, não devendo ser encaradas como únicas e muito menos como substitutivas do professor, pois a este cabe cada vez mais o papel de orientador, motivador e organizador de um ambiente propício para o ensino/aprendizagem eficiente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação reflete o uso de tecnologias digitais em comunicação, na área da pesquisa científica brasileira, considerando a influência dessas novas tecnologias na sociabilidade dos grupos de pesquisa. Investiga as implicações de um modelo de comunicação e sociabilidade, através da Rede, apresentando o termo Comunidade Científica via Internet (CCI), os conceitos de sociabilidade, comunidade, ciência e espaços virtuais e como forma de interação em Rede. Baseia-se em uma metodologia de análise e verificação de variáveis realizada com grupos de pesquisa, vinculados ao Programa Nacional de Cooperação Acadêmica (PROCAD), tratando-se, no entanto, de uma pesquisa de cunho qualitativo, onde apresenta dados provindos de instrumentos de pesquisa, como questionário e entrevista, bem como de pesquisa bibliográfica, com intuito de analisar a existência e de uma comunidade nesse grupo, além de suas perspectivas em relação à comunicação, à interação e à sociabilidade em espaços virtuais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As vacinas de DNA têm sido utilizadas para a indução de imunidade contra antígenos virais e bacterianos. A aplicação de modelos experimentais tem sido explorada visando a indução de tolerância imunológica através da expressão de genes cujos produtos podem modular o sistema imune para um estado de não responsividade. A terapia gênica oferece a possibilidade de manipulação do sistema imune do receptor, através de um sistema de administração de genes específicos sob condições pré-definidas. Sua eficácia depende dos níveis de expressão e da natureza do antígeno, da via de administração assim como de sua distribuição nos tecidos (a qual às vezes depende do promotor utilizado). Porém, sua aplicação clínica é limitada em parte devido aos baixos níveis de expressão obtidos in vivo. A VP22 é uma proteína do tegumento do vírus Herpes simples tipo 1, que tem a propriedade de fazer tráfego intercelular. Estudos recentes têm demonstrado a alta eficiência desta molécula no transporte de proteínas heterólogas como VP22-p53, VP22-β galactosidase e VP22-proteína verde fluorescente. Para a indução de tolerância imunológica, tem sido demonstrado que a persistência do antígeno, pelo menos por algum período, é muito importante. Moléculas do complexo de histocompatibilidade principal (MHC) têm sido utilizadas para induzir tolerância a nível central ou periférico, em diferentes protocolos. Dentre estas, as moléculas da classe I do camundongo, Kb, têm sido utilizadas com sucesso. O objetivo desse trabalho foi de construir duas vacinas recombinantes: pVP22::Kb e pCIneo::Kb. A primeira contém dois genes clonados na mesma pauta de leitura: a cadeia pesada de classe I Kb e VP22. O cDNA que codifica para o Kb foi obtido pela extração de RNA total de baço de um camundongo C57BL/6 (haplótipo H-2b) seguido de transcrição reversa. Este produto foi amplificado pela reação em cadeia da polimerase. Esta molécula também foi obtida pela amplificação direta do gene Kb previamente clonado no sítio EcoR I do plasmídeo pBluescriptIISK (Stratagene®). Ambos os produtos de PCR foram subclonados com extremidades cegas no plasmídeo pCRBluntII (Invitrogen®). Foram obtidos dezenove plasmídeos recombinantes, denominados pCRBluntII::Kb, e um deles foi escolhido e digerido com as enzimas de restrição Spe I e Xba I e defosforilado com a enzima fosfatase alcalina (CIAP). O fragmento digerido foi clonado nos plasmídeos pVP22-myc/His (Invitrogen®) e pCIneo (Promega®) previamente digeridos com a enzima Xba I. Os novos plasmídeos pVP22::Kb e pCIneo::Kb foram utilizados para transfectar a linhagem celular eucariótica CHO. A expressão do mRNA para o Kb foi confirmada pela transcrição reversa e PCR e a expressão da proteína por imunofluorescência e citometria de fluxo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho de conclusão apresenta a implantação de um sistema de Troca Rápida de Ferramentas (TRF), através de uma metodologia elaborada a partir de uma revisão na literatura disponível. A comprovação do método se dá através de um estudo de caso aplicado à indústria siderúrgica, mais especificamente um laminador de aços longos. A implantação plena de uma sistemática TRF permite uma redução significativa nos tempos de preparação e ajuste. A partir disso, a disponibilização de tempo para a produção pode gerar um melhor aproveitamento da capacidade produtiva, ou mesmo viabilizar a produção econômica em pequenos lotes, flexibilizando a fábrica, de acordo com a estratégia de produção desejada. O trabalho apresenta uma revisão bibliográfica sobre metodologias de implantação de sistemas TRF sob a ótica de diferentes autores e, a partir disso, consolida um método a ser implantado. O método faz uso de uma série de técnicas e ferramentas de melhoria, enfatizando o envolvimento e comprometimento das equipes operativas e de liderança. A descrição do estudo de caso apresenta de forma detalhada as etapas de implantação e os resultados obtidos a partir da efetivação de ações com foco na redução dos tempos de preparação. A seção final traz conclusões obtidas durante a realização da implantação e apresenta sugestões para trabalhos futuros.