49 resultados para Imagens, ilustrações, etc. como recursos de informação


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Infelizmente os problemas relativos a recursos hídricos, conseqüentes do crescimento urbano desordenado têm ocupado, com uma freqüência cada vez maior, a manchete dos noticiários. A impermeabilização das superfícies vem provocando o aumento das enchentes nas cidades, e a população é a principal vítima de suas ações. Para contornar os problemas relativos aos alagamentos de uma maneira sustentável, o enfoque adotado é a solução dos problemas o mais próximo possível de sua origem. Uma medida sugerida é o controle das vazões na saída dos lotes, através de microrreservatórios de detenção. No entanto, pouco se sabe sobre a ação distribuída dos microrreservatórios na bacia. A partir da constatação desta falta de informação, este trabalho buscou avaliar o efeito do controle na fonte, através da utilização do microrreservatório de lote, sobre a macrodrenagem urbana. Para isso, optou-se pela montagem de uma bacia hipotética, cujas superfícies de escoamento foram representadas em detalhe (telhado, calçada, rua, jardim, microrreservatório, etc.), e através de simulações numéricas avaliou-se o impacto com a utilização dos microrreservatórios. Foram dimensionados microrreservatórios para várias combinações de TRs e vazões de descarga, e testados na bacia. Foi possível obter níveis de eficiência na bacia na ordem de 50 a 70%, de acordo com a vazão na saída dos lotes, e verificou-se que ao fixar até 3 vezes a vazão de pré-urbanização na saída do lote é possível obter uma eficiência da mesma ordem daquela obtida ao controlar a vazão de pré-urbanização. A vantagem obtida ao permitir maiores vazões na saída dos lotes é o aumento do diâmetro do descarregador de fundo, que para as vazões menores resultaram muito pequenos, e possivelmente inviáveis em uma situação real. Uma análise econômica foi realizada, a partir dos critérios de dimensionamento usados para os microrreservatórios e redes de drenagem, na tentativa de encontrar evidências indicando uma alternativa de projeto eficiente e ao mesmo tempo econômica. A análise mostrou que o custo global (microrreservatórios + redes) pode ser, em alguns casos, maior que o custo de implantação de uma rede de drenagem sem microrreservatórios. No entanto, para as vazões de restrição maiores (3 a 5 vezes a vazão de pré-urbanização) a diferença diminuiu. Portanto, desde que haja capacidade na rede coletora, a utilização de vazões de restrição em torno de 3 vezes a vazão de préurbanização parece ser a alternativa mais adequada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta de uma arquitetura e o modelo de um Agente de Intercâmbio Eletrônico de Dados, Agente EDI, cuja função é, permitir a troca de dados estruturados entre Sistemas de Informações Distribuídos através da Internet. A estratégia de interação dos agentes possibilita uma maneira alternativa de tratar a recuperação, o armazenamento e a distribuição de dados, permitindo assim, o desenvolvimento de um modelo de Sistema de Informações baseado em Web, igualmente proposto neste trabalho. É apresentado também o desenvolvimento do Agente EDI proposto. O qual poderá ser utilizado por entidades que necessitam disponibilizar ou recuperar dados estruturados via Web, como por exemplo: informações de produtos, listas de preços, dados cadastrais, etc. A relevância deste trabalho está no fato de apresentar uma tecnologia simples e acessível, capaz de ser implementada sem a necessidade de altos investimentos e capaz de facilitar a implementação de Sistemas Distribuídos via Internet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A área bancária é um dos setores que mais têm investido em tecnologia de informação (TI), tendo seus produtos e serviços fundamentalmente apoiados por essa tecnologia. Apesar de complexo, mostra-se necessário e importante identificar e avaliar os possíveis efeitos de sua aplicação nas organizações, de forma a poder-se comprovar se os altos investimentos em TI fazem diferença. Nesta dissertação, comparam-se as percepções dos executivos dos bancos argentinos, uruguaios, chilenos, norte-americanos e brasileiros, quanto ao impacto proporcionado pela TI nas variáveis estratégicas das organizações bancárias. O estudo é uma pesquisa survey descritiva, que utilizou como instrumento de coleta de dados o questionário desenvolvido por MAÇADA & BECKER (2001). Para tal, foram realizados testes de validação (primeiramente, com os dados dos três países latino-americanos de língua hispânica e, depois, com os dados dos cinco países envolvidos na pesquisa). Com a realização deste estudo, obtiveram-se, como principais resultados, quatro importantes achados: (1) a Competitividade, os Produtos e Serviços e os Tomadores de Recursos Financeiros (clientes) são as variáveis estratégicas mais afetadas pela TI; Preços e Estrutura de Custos e Capacidade são as variáveis estratégicas menos afetadas pela TI; (2) os executivos dos bancos argentinos e uruguaios, e norte-americanos e uruguaios apresentam percepções muito semelhantes, quanto ao impacto de TI nas organizações bancárias às quais pertencem, enquanto as amostras brasileira e norte-americana apresentam as percepções mais distintas entre si; (3) não há diferença entre executivos de TI e de outras áreas funcionais quanto à percepção dos impactos de TI nas variáveis estratégicas; e (4) o impacto da TI na Competitividade está significativamente relacionado com os impactos da TI nos Tomadores de Recursos Financeiros, Governos e Países, Produtos e Serviços e Estrutura de Custos e Capacidade. A pesquisa apontou, ainda, as variáveis estratégicas mais afetadas pela TI nos setores bancários argentino, uruguaio e chileno. Espera-se que este estudo sobre o impacto de TI nas organizações constitua-se, para os executivos bancários, em ferramenta que possibilite apoiar no planejamento de TI e avaliar a sua utilização, bem como sirva de suporte para a realização de futuras pesquisas sobre esta temática.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com a globalização do mercado e o alto nível de competitividade no setor educacional, as organizações, para manterem-se, devem ser ágeis e competentes. Neste contexto, a gestão eficiente dos recursos e a obtenção de informações precisas que apóiem a tomada de decisão dependerão, em grande parte, de um sistema de informações de custos. Este sistema deverá ter como base um método de custeio que forneça informações, a fim de atender as distintas necessidades dos gestores dos diversos níveis hierárquico e das diversas áreas de atuação. O trabalho consiste no estudo de uma metodologia de custeio aplicável a uma Instituição de Ensino Superior – IES privada, a qual atenda as três perspectivas que são fornecer informações para embasar a composição dos preços, para apoiar o processo decisório e para o planejamento e controle de gastos. Para tanto, partiu-se da pesquisa bibliográfica no levantamento do estado da arte relacionada ao tema. Com o estudo de caso buscou-se a identificação das necessidades de informações de custos, demandadas pelos gestores da IES, por meio de pesquisa qualitativa. A partir dessa identificação, as necessidades foram cruzadas com os métodos de custeio existentes, o que permitiu a identificação do método mais adequado a IES. Nesta etapa foi possível o cruzamento entre a teoria e a prática, onde foram comparados o método proposto em relação ao atual método adotado pela IES o que possibilitou a identificação das deficiências do modelo atual e suas causas. A partir disto, propõe-se uma sistemática mais adequada para apoiar a tomada de decisão, com o intuito de melhoria do desempenho da instituição. Os resultados obtidos demonstram o cumprimento do objetivo onde, considerando as necessidades de informações de custos dos gestores, o método de custeio por atividades é o mais adequado para o suporte a gestão da IES.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Para avaliar, in vitro, o desempenho diagnóstico de imagens radiografadas convencionais digitalizadas através da obtenção de medidas de cmprimento radicular, da comparação de pares de imagens e da subtração digital em dentes submetidos a reabsorções radiculares externas apicais e à movimentação ortodôntica simulada, 28 incisivos centrais superiores, em cujas coroas foi colado um bracket, tiveram seu comprometimento radicular medido através de paquímetro digital e foram radiografados associados e um simulador de tecidos ósseo e moles, como auxílio de posicionadores individualizados, pela técnica periapical da bissetriz. Os dentes foram novamente medidos e radiografados após desgastes apicais seqüênciais de aproximadamente 0,5 m (R1) e 1 nn(R2), variando sua inclinação no sentido vestibulo-palatno (0º, 5º, 10º e 15º). As radiografias foram digitalizadas e submetidas incialmente à análise quantitativa do comprimento dentário, através de régua eletrônica. Após, pares de imagens do mesmo dente (inicial x inclinação) foram exibidos, em monitor, a um observador, que as avaliou quanto à presença ou à ausência de imagem compatível com reabsorção apical, atribuindo-lhes escores de 1 a 5. As imagens resultantes da subtração dos mesmos pares de radiografias foram avaliados pelos mesmos critérios. As medidas lineares de comprimento radicular foram reprodutíveis (r = 0,93), diferindo significativamente entre as duas etapas de reabsorção (R1: 0,59 0,19 mm; R2:1,14 0,37 mm) porém não diferindo significativamente em função da inclinação do dente. A avaliação de pares de imagens apresentou correlaçao média (r = 0,46) quando repetida em 20% da amostra, não apresentando diferenças estatisticamente significativas nos escores atribuídos às imagens de acordo coma inclinação dos dentes (Teste não paramétrico de Friedman, R1:p = 0,704 e R2:p = 0,508). A avaliação por subtração digital de imagens apresentou correlação média (r = 0,485) quando repetida em 20% da amostra, não diferiu significativamente (Teste não paramétrico de Friedman), em ambas as etapas de reabsorção, apenas para as inclinações 0º e 5º. Tais resultados permitem concluir que os rescursos testados tiveram desempenhos diferentes de Reabsorções Radiculares Externas Apicais (RREA) simuladas, pois os valores médios das medidas de comprimento do dente, para cada nível de reabsorção, não variaram, significativamente em função da inclinação do mesmo, permitindo a identificação e quantificação da RREA, na comparação de pares de imagens exibidas lado a lado na telado computador, os escores atribuídos também não variam signficativamente para as diferentes inclinaçãoes, permitindo a identificação da RREA; e, na avaliação qulitativa de imagens de subtração, os escores atribuídos permitiram a identificação da RREA apenas quando os dentes foram inclinados em até 5º.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Guias para exploração mineral são normalmente baseados em modelos conceituais de depósitos. Esses guias são, normalmente, baseados na experiência dos geólogos, em dados descritivos e em dados genéticos. Modelamentos numéricos, probabilísticos e não probabilísticos, para estimar a ocorrência de depósitos minerais é um novo procedimento que vem a cada dia aumentando sua utilização e aceitação pela comunidade geológica. Essa tese utiliza recentes metodologias para a geração de mapas de favorablidade mineral. A denominada Ilha Cristalina de Rivera, uma janela erosional da Bacia do Paraná, situada na porção norte do Uruguai, foi escolhida como estudo de caso para a aplicação das metodologias. A construção dos mapas de favorabilidade mineral foi feita com base nos seguintes tipos de dados, informações e resultados de prospecção: 1) imagens orbitais; 2) prospecção geoquimica; 3) prospecção aerogeofísica; 4) mapeamento geo-estrutural e 5) altimetria. Essas informacões foram selecionadas e processadas com base em um modelo de depósito mineral (modelo conceitual), desenvolvido com base na Mina de Ouro San Gregorio. O modelo conceitual (modelo San Gregorio), incluiu características descritivas e genéticas da Mina San Gregorio, a qual abrange os elementos característicos significativos das demais ocorrências minerais conhecidas na Ilha Cristalina de Rivera. A geração dos mapas de favorabilidade mineral envolveu a construção de um banco de dados, o processamento dos dados, e a integração dos dados. As etapas de construção e processamento dos dados, compreenderam a coleta, a seleção e o tratamento dos dados de maneira a constituírem os denominados Planos de Informação. Esses Planos de Informação foram gerados e processados organizadamente em agrupamentos, de modo a constituírem os Fatores de Integração para o mapeamento de favorabilidade mineral na Ilha Cristalina de Rivera. Os dados foram integrados por meio da utilização de duas diferentes metodologias: 1) Pesos de Evidência (dirigida pelos dados) e 2) Lógica Difusa (dirigida pelo conhecimento). Os mapas de favorabilidade mineral resultantes da implementação das duas metodologias de integração foram primeiramente analisados e interpretados de maneira individual. Após foi feita uma análise comparativa entre os resultados. As duas metodologias xxiv obtiveram sucesso em identificar, como áreas de alta favorabilidade, as áreas mineralizadas conhecidas, além de outras áreas ainda não trabalhadas. Os mapas de favorabilidade mineral resultantes das duas metodologias mostraram-se coincidentes em relação as áreas de mais alta favorabilidade. A metodologia Pesos de Evidência apresentou o mapa de favorabilidade mineral mais conservador em termos de extensão areal, porém mais otimista em termos de valores de favorabilidade em comparação aos mapas de favorabilidade mineral resultantes da implementação da metodologia Lógica Difusa. Novos alvos para exploração mineral foram identificados e deverão ser objeto de investigação em detalhe.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação trata de uma investigação, no âmbito da Informática na Educação Especial no que se refere à acessibilidade às tecnologias de informação e comunicação (TIC) utilizadas como apoio educacional por pessoas com necessidades educacionais especiais (PNEEs). Portanto, tem como objetivo estudar o campo da acessibilidade homem-computador e especificamente uma análise de recursos de acessibilidade técnico-pedagógicos para PNEEs e procura responder a seguinte questão desta pesquisa: “Que recursos tecnológicos e pedagógicos necessitam PNEEs para apropriação de ferramentas computacionais, na interação com ambientes digitais/virtuais?” Neste sentido, realizamos uma revisão de literatura da acessibilidade digital, para contextualizar o tema e obter sinalizadores na forma de premissas que fundamentam os pressupostos de acessibilidade tecnológicos e, a partir deste contexto, apresentamos recomendações de acessibilidade à Web, dispositivos de hardware e software que possibilitam o acesso ao computador e ao software convencional. Como aporte pedagógico, utilizamos a teoria sócio-histórica que considera importante para o desenvolvimento humano, a apropriação das experiências presentes na cultura pelos indivíduos, no nosso caso, as TIC. Foi adotada a metodologia qualitativa e para a coleta e análise de dados, optamos pelo estudo de caso através da observação direta, que incluíram como sujeitos de pesquisa pessoas com necessidades especiais distintas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresenta-se neste estudo o potencial de recuperação de informação em C&T nas bases de dados nacionais e internacionais na grande área das Ciências da Saúde, na área da Medicina e na pesquisa médica em Câncer no Brasil. Esta capacitação científica instalada foi hierarquizada geográfica e institucionalmente usando como parâmetro o conceito de mérito científico fornecido pelo próprio sistema de C&T brasileiro. Os dados foram complementados pela análise da produção científica para identificar o grau de inserção internacional da pesquisa médica em Câncer no Brasil. Para tanto foram incorporadas informações das bases de dados do Institute for Scientific Information. Pode-se concluir que a grande área das Ciências da Saúde é a maior em contingente de pesquisa no Brasil, sendo a Medicina a área numericamente predominante. Na pesquisa médica em Câncer constatou-se que existem apenas dois cursos de pós-graduação diretamente relacionados com a formação de recursos humanos neste tema de pesquisa, 569 grupos de pesquisa (3,8% do total do país), 785 pesquisadores doutores, dos quais somente 153 são pesquisadores com bolsa de produtividade em pesquisa do CNPq (1,7% do total do país) No entanto, a produção científica, apesar de pouco expressiva do ponto de vista quantitativo, apresenta uma inserção internacional qualificada, sendo utilizada por outros pesquisadores com um elevado percentual, 84% de citações dos artigos brasileiros produzidos entre 1998-2002. Conclui-se, portanto, que apesar de não esgotar completamente as muitas especificidades do tema investigado, as informações disponíveis nas bases de dados nacionais e internacionais podem apontar caminhos para a investigação de tendências significativas da comunidade científica em todas as áreas do conhecimento ou temas de pesquisa, conforme os modos de recuperação apresentados. Através da interpretação criteriosa a partir de estudos continuados nessas bases, como é o caso deste trabalho, é possível utilizar a informação em C&T como subsídio para o planejamento de políticas de CT&I no Brasil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação propõe e discute um mecanismo de realimentação de relevâncias (i. e. “Relevance Feedback”). A técnica de realimentação de relevâncias foi introduzida inicialmente em meados dos anos 60, como uma estratégia para refinamento de consultas para a recuperação de informações. Como uma técnica de refinamento de consultas, foi aplicada inicialmente em sistemas de recuperação de informações textuais. Neste caso, os termos ou expressões consideradas importantes, são utilizados na formulação de uma nova consulta. Ao surgirem os sistemas de recuperação de informação visual baseada em conteúdo (CBVIR), houve a necessidade de serem introduzidos novos elementos associados a esse processo de reformulação de consultas, de tal forma que fossem utilizados não apenas as informações de alto nível, como os termos e expressões. Esses novos elementos passaram a considerar também a subjetividade de percepção humana em relação ao conteúdo visual. Neste trabalho, apresenta-se um processo de extração e representação desse conteúdo, através da utilização de feições (conteúdo) de cor e textura, extraídos de imagens JPEG, uma vez que no processo de compressão de imagens nesse formato, utiliza-se coeficientes da Transformada Discreta do Cosseno (DCT), sendo, portanto esses coeficientes utilizados como elementos que possuem as informações associadas a cor e textura na imagem. Além da DCTé utilizada a Transformação Mandala [YSH 83] no processo de agrupamento de somente 10 coeficientes, com o objetivo de produzir 10 imagens com resoluça menor que a imagem original, mas que representam cada uma, o conteúdo de uma frequência particular da imagem original. A escolha por uma representação como essa,é a garantia de uma redução significativa na quantidade de dados a serem processados. Entretanto, a representação obtida nesse formato para as imagens,é com base em conteúdo global de cor e textura, o que pode produzir resultados insatisfatórios. A introdução de um mecanismo de realimentação de relevâncias, associado à representação utilizada, permite contornar a dificuldade apontada acima, através da obtenção de consultas subsequentes, selecionando os objetos mais relevantes, assim como menos objetos não relevantes, utilizando o conhecimento do usuário de forma interativa no refinamento de consultas para recuperação de informações visuais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O projeto de edificações é um dos processos mais importantes em empreendimentos de construção pelo seu impacto em termos de custo e qualidade do produto final. Entretanto, observam-se muitos problemas relacionados ao gerenciamento inadequado do mesmo, tais como ineficiente comunicação entre os intervenientes, indefinição de responsabilidades e ocorrência de erros em projetos. Muitos destes problemas dizem respeito à sub utilização dos sistemas CAD e tecnologias da informação. O presente trabalho tem como objetivo propor diretrizes e padrões para gestão do fluxo de informações e para produção de desenhos no processo de projeto utilizando recursos computacionais. Busca-se, assim, o aumento da eficiência do uso dos sistemas CAD e tecnologias da informação e também uma maior eficiência nas trocas de informações entre os intervenientes. Para tal, foram realizados dois estudos de caso em empresas construtoras incorporadoras de pequeno porte situadas na Região Metropolitana de Porto Alegre - RS. A partir dos estudos de caso, foram desenvolvidos os seguintes padrões: estrutura de diretórios, back up de arquivos de desenho, nomenclatura de arquivos de desenho, protocolos de envio e recebimento de arquivos ou plantas, controle de versões de plantas ou memoriais descritivos enviados à obra, nomenclatura de layers, layers para integração, diretrizes para produção de desenhos no computador e diretrizes para apresentação de plantas. Além disso, foram identificadas e discutidas novas tendências em termos de aplicação das tecnologias da informação no processo de projeto. No entanto, salienta-se que este trabalho não tem a intenção de quebrar o paradigma atual do processo de projeto, mas sim, contribuir para preparar as empresas construtoras incorporadoras e escritórios de projeto para as tendências futuras de informatização.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A competitividade incremental que vem sendo requerida das empresas tem exigido um processo de gestão ágil e inteligente, no qual uma eficiente gestão da informação é crucial à sobrevivência das organizações. A adoção e implementação de sistemas informacionais, não poucas vezes, tem levado ao desperdício e à frustração pela inobservância de determinados empecilhos que podem não ser detectados quando da tomada de decisão em implantar um sistema. O presente estudo tem por objetivo identificar fatores sociais, técnicos, e financeiros, inibidores à adoção de Tecnologia da Informação avançadas, por parte das pequenas e médias empresas das Micro-Regiões da AMPLASC1 e AMMOC2. O método foi um estudo exploratório de corte transversal, onde, através de survey realizada junto a 62 empresas busca-se levantar as características da população pesquisada. O instrumento de coleta de dados composto de 83 questões foi dividido em quatro partes: a) identificação do respondente e da organização; b) identificando a TI; c) identificação dos fatores técnicos inibidores; e d) identificação dos fatores sócio-culturais inibidores. A análise dos dados foi realizada primeiramente considerando a amostra total, depois quando as organizações eram estratificadas em Pequena e Média empresa, e, finalmente, quando estas organizações eram estratificadas pelo ramo de atividade (Comércio, Industria, e Serviço), demonstrando como os fatores mencionados na literatura mundial são entendidos como com potencialidade inibidoras pelas organizações da região em estudo. Pelos resultados da presente pesquisa é possível concluir que as empresas possuem uma infraestrutura em TI satisfatória aos usuários, que consideram, em sua grande maioria, suficiente os recursos de hardware e software disponibilizados pelas organizações para realização das suas atividades. Apesar disso, é possível verificar que a situação não é totalmente confortável. Isto é, ainda que os respondentes tenham considerado que a infraestrutura em TI seja suficiente, existem alguns fatores que dificultam uma utilização mais adequada das TIs. Conclui demonstrando que alguns fatores precisam ser trabalhados para que a gestão da informação possa trazer a eficiência, eficácia e efetividade as organizações da região do estudo.