107 resultados para Divisão automática


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas de gestão documental e de recuperação de informação são hoje ferramentas essenciais para aceder aos grandes volumes de informação disponíveis. O exemplo mais popular deste cenário é o motor de pesquisa Google, que se estimava possuir cerca de 45 milhares de milhões de páginas Web, em Março de 2013 [14]. Uma vez que a maioria das pessoas, apenas consultam os primeiros dez resultados duma pesquisa, torna-se crucial conseguir uma boa ordenação das respostas, de forma a permitir que o utilizador veja os resultados contendo informação diversificada, de acordo com as suas preferências e indo ao encontro daquilo que escreveu na pesquisa. Além do objetivo de ordenação segundo a query escrita pelo utilizador, também foi tido como objetivo a remoção de documentos similares do topo dos resultados das pesquisas. Nesta tese, pretendemos investigar o uso de algoritmos de aprendizagem de ordenação de resultados, por forma a aumentar a qualidade dos resultados de topo das pesquisas e analisar algumas maneiras para aumentar a diversidade de informação no topo dos resultados das pesquisas. Uma aplicação foi desenvolvida no contexto desta tese e foi aplicada a um sistema de pesquisa que foi desenvolvido em contexto empresarial com a Quidgest S.A, sendo que posteriormente irá ser integrada numa plataforma de desenvolvimento rápido de aplicações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se uma metodologia protótipo destinada a efectuar a modelação automática a 2D da morfologia de mineralizações filonianas. Em primeiro lugar procede-se à estimação do número de ocorrências de filões em cada bloco, de uma malha de blocos, em que se subdividiu o volume em estudo. Esta intensidade de ocorrências é quantificada por uma variável que representa o número de filões por metro linear(NFM) intersectados por uma sondagem vertical, e constitui o objectivo de intensidade a atingir. Seguidamente são gerados por simulação, linhas poligonais ou arcos correspondentes ao posicionamento dos filões no perfil. Estes arcos ligam alguns pares de intersecções de filões amostrados nas sondagens e são escolhidos ao acaso segundo regras de orientação e distância. Seguidamente faz-se a avaliação da intensidade local de filões do modelo e, para os locais onde exista défice de filões relativamente ao objectivo, são adicionadas intersecções virtuais, ou seja, que não foram reconhecidas por sondagens. Este procedimento continua até o modelo dos filões se aproximar do objectivo previamente definido. O conjunto dos arcos em cada perfil, associado às espessuras de intersecção observadas nas sondagens, constitui um modelo morfológico dos filões em estrutura vectorial. No final faz-se a avaliação quantitativa do modelo e da incerteza. Os dados do estudo prático que motivaram o desenvolvimento da metodologia foram recolhidos no depósito mineral das Minas da Panasqueira. Os resultados obtidos no estudo mostram que a introdução de uma metodologia automática para a modelação vectorial de filões mineralizados é uma mais-valia, porque permite gerar modelos mais realistas e com melhor controlo geológico e resolução do que as abordagens clássicas de possança e acumulação, constituindo um auxiliar precioso de avaliação de reservas de minério.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescente poder computacional dos dispositivos móveis e a maior eficiência dos navegadores fomentam a construção de aplicações Web mais rápidas e fluídas, através da troca assíncrona de dados em vez de páginas HTML completas. A OutSystems Platform é um ambiente de desenvolvimento usado para a construção rápida e validada de aplicaçõesWeb, que integra numa só linguagem a construção de interfaces de utilizador, lógica da aplicação e modelo de dados. O modelo normal de interação cliente-servidor da plataforma é coerente com o ciclo completo de pedido-resposta, embora seja possível implementar, de forma explícita, aplicações assíncronas. Neste trabalho apresentamos um modelo de separação, baseado em análise estática sobre a definição de uma aplicação, entre os dados apresentados nas páginas geradas pela plataforma e o código correspondente à sua estrutura e apresentação. Esta abordagem permite a geração automática e transparente de interfaces de utilizador mais rápidas e fluídas, a partir do modelo de uma aplicação OutSystems. O modelo apresentado, em conjunto com a análise estática, permite identificar o subconjunto mínimo dos dados a serem transmitidos na rede para a execução de uma funcionalidade no servidor, e isolar a execução de código no cliente. Como resultado da utilização desta abordagem obtém-se uma diminuição muito significativa na transmissão de dados, e possivelmente uma redução na carga de processamento no servidor, dado que a geração das páginasWeb é delegada no cliente, e este se torna apto para executar código. Este modelo é definido sobre uma linguagem, inspirada na da plataforma OutSystems, a partir da qual é implementado um gerador de código. Neste contexto, uma linguagem de domínio específico cria uma camada de abstração entre a definição do modelo de uma aplicação e o respetivo código gerado, tornando transparente a criação de templates clientside e o código executado no cliente e no servidor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na cadeia de produção de cartografia digital, que se encontra implementada no IGeoE, existe a necessidade de efetuar a restituição de objetos através da vetorização 3D. Sendo este processo completamente manual, o operador identifica e adquire os objetos, em ambiente estereoscópico, segundo as regras estabelecidas nas normas de aquisição. A aquisição de construções, nomeadamente os edifícios, são dos objetos que mais recursos consomem devido à sua frequência e dificuldade de restituição. A possibilidade de simplificar esta parte do processo proporciona um beneficio substancial para toda a cadeia de produção. Pretende-se assim detetar edifícios em fotografias aéreas, extraindo a sua informação planimétrica e altimétrica, para posterior inserção num SIG. Para a obtenção da altimetria são utilizados os princípios de fotogrametria analítica através das equações de colinearidade. Este problema torna-se relevante devido ao facto de se pretender retirar informação de fotografias, que possuem bastante informação, com recurso à computação gráfica, através de técnicas de segmentação em vários níveis e fotogrametria, juntando assim duas áreas do saber. Esta solução permite automatizar um processo que é predominantemente manual, contribuindo para melhorar a cadeia de produção sem a alteração de funcionamento da mesma.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In, revista "Desporto & Direito: revista jurídica do desporto" Ano IV, Nº 12, Maio/Agosto 2007

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The principal topic of this work is the application of data mining techniques, in particular of machine learning, to the discovery of knowledge in a protein database. In the first chapter a general background is presented. Namely, in section 1.1 we overview the methodology of a Data Mining project and its main algorithms. In section 1.2 an introduction to the proteins and its supporting file formats is outlined. This chapter is concluded with section 1.3 which defines that main problem we pretend to address with this work: determine if an amino acid is exposed or buried in a protein, in a discrete way (i.e.: not continuous), for five exposition levels: 2%, 10%, 20%, 25% and 30%. In the second chapter, following closely the CRISP-DM methodology, whole the process of construction the database that supported this work is presented. Namely, it is described the process of loading data from the Protein Data Bank, DSSP and SCOP. Then an initial data exploration is performed and a simple prediction model (baseline) of the relative solvent accessibility of an amino acid is introduced. It is also introduced the Data Mining Table Creator, a program developed to produce the data mining tables required for this problem. In the third chapter the results obtained are analyzed with statistical significance tests. Initially the several used classifiers (Neural Networks, C5.0, CART and Chaid) are compared and it is concluded that C5.0 is the most suitable for the problem at stake. It is also compared the influence of parameters like the amino acid information level, the amino acid window size and the SCOP class type in the accuracy of the predictive models. The fourth chapter starts with a brief revision of the literature about amino acid relative solvent accessibility. Then, we overview the main results achieved and finally discuss about possible future work. The fifth and last chapter consists of appendices. Appendix A has the schema of the database that supported this thesis. Appendix B has a set of tables with additional information. Appendix C describes the software provided in the DVD accompanying this thesis that allows the reconstruction of the present work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo foi desenvolvido tendo em conta: a importância do ciclo urbano da água, para a formação de cidadãos mais responsáveis e para a preservação do meio ambiente; a escassa divulgação de informações sobre o ciclo urbano da água, na Internet e na escola; a importância da Internet, como recurso pedagógico,e do trabalho de projecto, como metodologia de ensino/aprendizagem, para a aquisição de conhecimentos e para o desenvolvimento de outras competências essenciais, previstas no currículo nacional do ensino básico. Foi neste contexto que se tentou responder às seguintes questões: Como é o ciclo urbano da água no concelho de Torres Novas?; Como divulgar o ciclo urbano da água de uma forma atractiva e educativa?; Como aplicar o ciclo urbano da água aos conteúdos do ensino básico?; Como é que os alunos do 3º ciclo do ensino básico reagem à consulta de informação sobre o ciclo urbano da água na Internet?; Que influência exerce a consulta de um site sobre o ciclo urbano da água, nas competências desenvolvidas pelos alunos durante o trabalho de projecto? Partindo destas questões, definiram-se um conjunto de objectivos e realizaram-se as seguintes actividades: Caracterização do ciclo urbano da água no concelho de Torres Novas;Recolha de recursos educativos em sites portugueses relacionados com a água e o seu ciclo urbano; Criação e divulgação de um site para a Divisão de Águas e Saneamento da Câmara Municipal de Torres Novas (www.cm-torresnovas.pt/das), de modo a disponibilizar na Internet a informação recolhida; Realização de projectos sobre o ciclo urbano da água, por alunos de uma turma do 8º ano, no âmbito das disciplinas de Ciências, e recorrendo à consulta do site; Análise das opiniões e das competências dos alunos referidos, de modo a avaliar o site e a recolher informações sobre como reagem à consulta de conteúdos sobre o ciclo urbano da água na Internet e ao trabalho de projecto. Os dados foram recolhidos e analisados de acordo com um estudo de caso. Utilizaram-se os seguintes instrumentos: documentos, inquérito por entrevista, inquérito por questionário e observação participante. A análise dos resultados permitiu chegar às seguintes conclusões: Em 2006, cerca de 98% da população do concelho de Torres Novas tinha acesso a água potável, através dos sistemas de abastecimento de água, enquanto que apenas cerca de 62% da população era servida pelos sistemas de saneamento de águas residuais; O site foi muito apreciado pelos alunos e professores, pelo modo como foi construído, pelos seus conteúdos didácticos e atractivos, e pelas informações sobre o ciclo urbano da água; A realização de projectos sobre o ciclo urbano da água, recorrendo à utilização do site, foi considerada muito útil pelos alunos, por ajudar a adquirir conhecimentos importantes e a compreender melhor os conteúdos, e por contribuir para o desenvolvimento de competências. Tendo em conta que a maioria dos alunos apresentou muitas dificuldades na realização dos projectos,estes devem ser realizados com mais frequência e em várias disciplinas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem por fim o estudo de algoritmos que permitem efectuar uma visita guiada a um modelo volumétrico. A visita guiada permite ao utilizador observar todas as partes relevantes do modelo. Assim, expõe-se como seleccionar de forma automática as posições que melhor permitem observar as partes relevantes. Dadas essas posições, mostra-se como criar um percurso que passe por todas elas. O esforço exigido ao utilizador, durante a visita guiada, face à metodologia aplicada, é o mínimo possível, como se este estivesse numa plataforma móvel e alguém empurrasse essa plataforma. Liberto de todas as preocupações associadas à sua deslocação, o utilizador poderá concentrar-se apenas na observação do modelo. É também abordado o caso particular da visita guiada a um modelo representativo de um museu de pintura. As técnicas estudadas são implementadas, tendo sido criado um protótipo que permite efectuar uma visita guiada ao museu. Nessa visita guiada, as peças expostas, que são as partes relevantes do museu, são visualizadas da melhor forma possível, ou seja, de maneira a que sua dimensão e o contexto em que estão inseridas sejam perceptíveis para o utilizador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As Tecnologia de Informação, são certamente uma pedra base da sociedade de hoje e das vindouras. Estas têm modificado as relações sociais, culturais e organizacionais, tendo-se repercutido na sociedade, de diferentes formas. A análise aqui proposta, visa o mundo das organizações e o reconhecimento do peso do factor humano dentro desta, quer na forma como as relações entre os vários actores são mediadas por estas novas tecnologias, quer no que conceme às modificações produzidas por estas no trabalho e consequentemente nas qualificações dos operadores. O desenvolvimento desta análise, parte de uma perspectiva antropocêntrica, que tem, como premissas de partida o valor humano e as características culturais de cada organização. A proposta aqui apresentada, é sobretudo um alerta, para uma maior colaboração interdiscipliiar no desenho das Tecnologias de Informação, visando a plena integração do factor humano no desempenho destas tecnologias. Por último cabe aqui aludir ao estudo de caso, que tem por objecto de estudo um Sistema Flexível de Produção e a inclusão de um posto de trabaího no Sistema. A opção de organização do trabalho, visa sobretudo capacitar, o factor humano de competências e qualificações que lhe permitam o enobrecimento do seu posto de trabalho. É uma opção que assenta na divisão maleável do trabalho, sendo necessário um operador qualificado, mas também polivalente de forma a permitir ao indivíduo executar o conjunto de tarefas que comporta o posto de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado Integrado em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção de grau de Mestre em Engenharia Electrotécnica e de Computadores