56 resultados para Extração semi-automática


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Eradication of code smells is often pointed out as a way to improve readability, extensibility and design in existing software. However, code smell detection remains time consuming and error-prone, partly due to the inherent subjectivity of the detection processes presently available. In view of mitigating the subjectivity problem, this dissertation presents a tool that automates a technique for the detection and assessment of code smells in Java source code, developed as an Eclipse plugin. The technique is based upon a Binary Logistic Regression model that uses complexity metrics as independent variables and is calibrated by expert‟s knowledge. An overview of the technique is provided, the tool is described and validated by an example case study.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas de gestão documental e de recuperação de informação são hoje ferramentas essenciais para aceder aos grandes volumes de informação disponíveis. O exemplo mais popular deste cenário é o motor de pesquisa Google, que se estimava possuir cerca de 45 milhares de milhões de páginas Web, em Março de 2013 [14]. Uma vez que a maioria das pessoas, apenas consultam os primeiros dez resultados duma pesquisa, torna-se crucial conseguir uma boa ordenação das respostas, de forma a permitir que o utilizador veja os resultados contendo informação diversificada, de acordo com as suas preferências e indo ao encontro daquilo que escreveu na pesquisa. Além do objetivo de ordenação segundo a query escrita pelo utilizador, também foi tido como objetivo a remoção de documentos similares do topo dos resultados das pesquisas. Nesta tese, pretendemos investigar o uso de algoritmos de aprendizagem de ordenação de resultados, por forma a aumentar a qualidade dos resultados de topo das pesquisas e analisar algumas maneiras para aumentar a diversidade de informação no topo dos resultados das pesquisas. Uma aplicação foi desenvolvida no contexto desta tese e foi aplicada a um sistema de pesquisa que foi desenvolvido em contexto empresarial com a Quidgest S.A, sendo que posteriormente irá ser integrada numa plataforma de desenvolvimento rápido de aplicações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O arroz é o alimento básico para milhões de pessoas no Mundo inteiro. Como tal, o seu valor nutricional é algo de extrema importância. Contudo, ao seu processamento está associado um desperdício dos resíduos que advêm do seu descasque e branqueamento, o farelo e a casca. O principal objetivo deste trabalho consistiu no estudo do valor nutricional do grão de arroz e da valorização dos resíduos (farelo e casca) através da avaliação da atividade antioxidante. O estudo foi aplicado a três frações do bago de arroz: grão, farelo e casca, de três subvariedades diferentes: opale, ariete e ellebi. Foi avaliado o perfil de macronutrientes nas amostras de arroz, entre eles o teor de humidade, cinza, proteína e gordura. O grão foi a fração que apresentou maior teor de humidade, o farelo a que apresentou maior teor de gordura e proteína e a casca maior teor de cinza. Os compostos bioativos foram extraídos pelo método de extração sólido-liquido, usando como solvente uma mistura aquosa de metanol. A caracterização dos compostos antioxidantes dos extratos foi analisada através do teste da eliminação dos radicais livres de DPPH (2,2-difenil-1-picrilhidrazilo) e pelo método de Folin-Ciocalteau. Para a identificação dos compostos bioativos foi utilizada a técnica de UPLC-PDA (Cromatografia líquida de ultra eficiência - Detetor de matriz de Fotodíodos). A casca foi o extrato que continha uma maior capacidade antioxidante e um maior conteúdo de fenólicos totais (TPC), e o extrato do grão o que apresentou menor valor. Identicamente, foi na casca onde se conseguiu identificar um maior número de compostos, entre os quais se destacam os ácidos gentísico, isoferúlico, vanílico, elágico, p-cumárico e levulínico. A extração de compostos antioxidantes de farelo e casca de arroz demonstrou ser uma via bastante promissora para a valorização destes resíduos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A popularidade do chá preto (Camellia sinensis) mundialmente é indiscutível, principalmente por ser considerado como uma importante fonte de cafeína. No entanto a composição final da infusão consumida está fortemente associada ao seu modo de preparo. Neste estudo realizado com chá preto Pekoe (Gorreana®, Açores, Portugal), quantificou-se o teor de cafeína em infusões de chá preparadas de diferentes formas através de cromatografia gasosa. Além disso, foi desenvolvida uma nova técnica de extração da cafeína a partir de infusões liofilizadas. As infusões com folhas de chá preto foram preparadas com a proporção folhas/água sugerida na embalagem (3 g de folhas de chá em 50 ml de água). Na preparação destas infusões foram utilizadas duas extrações consecutivas das folhas de chá preto em diferentes tempos de infusão (1, 3, 5 ou 20 minutos). As infusões obtidas a partir primeira extração das folhas de chá preto foram analisadas através cromatografia gasosa e as seguintes quantidades de cafeína estavam presentes: 2,60 mg, 2,98 mg, 3,14 mg e 54,32 mg, para os tempos de infusão de 1, 3, 5 e 20 minutos, respectivamente. Para a segunda extração das folhas de chá foram quantificados os seguintes valores de cafeína (mg / 3 g de folhas): 0,52 mg, 0,10 mg, 0,14 mg e 0,20 mg para os tempos de infusão de 1, 3, 5 e 20 minutos respectivamente. As diferenças entre os resultados demonstram que a diferença mais expressiva de teor de cafeína nas infusões se observa entre amostras obtidas de extrações sucessivas. A diferença do tempo de extração tem um impacto bastante inferior devido à elevada solubilidade da cafeína em água quente. A aplicação de um teste de análise sensorial apresentou a opinião do consumidor sobre as infusões de chá analisadas, demonstrando a preferência e superioridade das amostras obtidas através da 1ª extração da folha de chá em relação aos atributos avaliados. Esta informação pode ser bastante relevante para o consumidor, pois permitirá com base na técnica de preparação do chá, e por um processo simples, ajustar o conteúdo de cafeína.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se uma metodologia protótipo destinada a efectuar a modelação automática a 2D da morfologia de mineralizações filonianas. Em primeiro lugar procede-se à estimação do número de ocorrências de filões em cada bloco, de uma malha de blocos, em que se subdividiu o volume em estudo. Esta intensidade de ocorrências é quantificada por uma variável que representa o número de filões por metro linear(NFM) intersectados por uma sondagem vertical, e constitui o objectivo de intensidade a atingir. Seguidamente são gerados por simulação, linhas poligonais ou arcos correspondentes ao posicionamento dos filões no perfil. Estes arcos ligam alguns pares de intersecções de filões amostrados nas sondagens e são escolhidos ao acaso segundo regras de orientação e distância. Seguidamente faz-se a avaliação da intensidade local de filões do modelo e, para os locais onde exista défice de filões relativamente ao objectivo, são adicionadas intersecções virtuais, ou seja, que não foram reconhecidas por sondagens. Este procedimento continua até o modelo dos filões se aproximar do objectivo previamente definido. O conjunto dos arcos em cada perfil, associado às espessuras de intersecção observadas nas sondagens, constitui um modelo morfológico dos filões em estrutura vectorial. No final faz-se a avaliação quantitativa do modelo e da incerteza. Os dados do estudo prático que motivaram o desenvolvimento da metodologia foram recolhidos no depósito mineral das Minas da Panasqueira. Os resultados obtidos no estudo mostram que a introdução de uma metodologia automática para a modelação vectorial de filões mineralizados é uma mais-valia, porque permite gerar modelos mais realistas e com melhor controlo geológico e resolução do que as abordagens clássicas de possança e acumulação, constituindo um auxiliar precioso de avaliação de reservas de minério.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescente poder computacional dos dispositivos móveis e a maior eficiência dos navegadores fomentam a construção de aplicações Web mais rápidas e fluídas, através da troca assíncrona de dados em vez de páginas HTML completas. A OutSystems Platform é um ambiente de desenvolvimento usado para a construção rápida e validada de aplicaçõesWeb, que integra numa só linguagem a construção de interfaces de utilizador, lógica da aplicação e modelo de dados. O modelo normal de interação cliente-servidor da plataforma é coerente com o ciclo completo de pedido-resposta, embora seja possível implementar, de forma explícita, aplicações assíncronas. Neste trabalho apresentamos um modelo de separação, baseado em análise estática sobre a definição de uma aplicação, entre os dados apresentados nas páginas geradas pela plataforma e o código correspondente à sua estrutura e apresentação. Esta abordagem permite a geração automática e transparente de interfaces de utilizador mais rápidas e fluídas, a partir do modelo de uma aplicação OutSystems. O modelo apresentado, em conjunto com a análise estática, permite identificar o subconjunto mínimo dos dados a serem transmitidos na rede para a execução de uma funcionalidade no servidor, e isolar a execução de código no cliente. Como resultado da utilização desta abordagem obtém-se uma diminuição muito significativa na transmissão de dados, e possivelmente uma redução na carga de processamento no servidor, dado que a geração das páginasWeb é delegada no cliente, e este se torna apto para executar código. Este modelo é definido sobre uma linguagem, inspirada na da plataforma OutSystems, a partir da qual é implementado um gerador de código. Neste contexto, uma linguagem de domínio específico cria uma camada de abstração entre a definição do modelo de uma aplicação e o respetivo código gerado, tornando transparente a criação de templates clientside e o código executado no cliente e no servidor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao longo dos Pensamentos, Pascal expressa a sua antipatia filosófica por alguns tipos de pensadores. Um desses tipos de pensadores corresponde à figura do "demi-savant". Os "demi-savants", ou semi-sábios, caracterizam-se essencialmente por uma pretensão de saber fracassada: são homens que julgam estar na posse de um saber que na verdade não possuem. O objectivo desta investigação é fixar, com o maior detalhe possível, o que está em causa na denúncia dos semi-sábios — um aspecto pouco trabalhado no âmbito dos estudos sobre o pensamento de Pascal. A primeira parte da investigação consiste assim na delimitação formal da categoria semi-sábios. Quais são as notas definitórias destes pensadores? Que tipo de erro está em jogo na sua atitude? Que opiniões fazem de alguém um semi-sábio? Estas perguntas acabam rapidamente por nos levar a outras, que dizem directamente respeito à tentativa de determinação do poder de fogo da razão humana. Com efeito, o fundamento filosófico da crítica aos semi-sábios é o diagnóstico arrasador que Pascal faz da capacidade da nossa razão na tarefa do conhecimento — de tal modo que estudar o problema que os semi-sábios representam é estudar sob um determinado ângulo o problema geral da procura da verdade. Nesse sentido, depois de esclarecido o significado da designação semi-sábio, analisamos dois argumentos apresentados nos Pensamentos que visam contestar a compreensão habitualmente constituída acerca das possibilidades do homem na tarefa do conhecimento. Procuramos ainda, por último, desfazer possíveis equívocos quanto à fixação da posição de Pascal no campo da epistemologia. Embora haja poucas referências aos semi-sábios nos textos que compõem os Pensamentos, trata-se de uma figura que funciona como ponto de cruzamento de vários aspectos relevantes de um problema que está no centro do projecto apologético de Pascal: o problema do modo de apuramento da verdade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas o aumento da expansão das áreas urbanas conduziu a rápidas mudanças nos ambientes urbanos. Estas mudanças necessitam de uma observação e compreensão, por forma a permitir a monitorização e avaliação do processo de planeamento urbano. A utilização de dados obtidos por Deteção Remota (DR), aliada aos Sistemas de Informação Geográfica (SIG), surge como uma fonte de informação válida para modelar, recolher, armazenar, exibir e analisar os sistemas urbanos. Neste contexto, a informação planimétrica e altimétrica recolhida por sensores remotos pode ser explorada por forma a extrair informação acerca do uso e ocupação do solo, e apresenta-la sob a forma de indicadores para apoio à decisão. Um sistema de indicadores urbanos baseados em dados obtidos por DR constitui uma ferramenta para as cidades transmitirem os diferentes riscos urbanos bem como na promoção de medidas e estratégias para um eficiente planeamento urbano. A dissertação de mestrado proposta tem como principal objetivo a criação de um sistema de indicadores urbanos que caracterize a cidade de Lisboa ao nível das áreas verdes e do volume construído. Assim, de forma a atingir o objetivo principal é desenvolvida uma metodologia baseada em informação altimétrica e planimétrica que permite analisar as áreas verdes da cidade de Lisboa bem como o volume construído. A informação altimétrica urbana (3D) é derivada de dados cartográficos oficiais (curvas de nível que originam um Modelo Digital de Terreno) e informação recolhida por LiDAR (Light Detection And Ranging) (que representa o Modelo Digital de Superfície). A informação 2D é extraída de uma imagem do satélite de alta resolução Worldview-2 de 2010, com um pixel de 0,5m, do concelho de Lisboa, através de técnicas de processamento digital de imagem. A informação recolhida permite, por um lado a modelação 3D do edificado, e por outro a quantificação 2D da cobertura vegetal em meio urbano. Posteriormente, num ambiente SIG, a informação extraída é cruzada com dados censitários e dados de uso e ocupação do solo. A análise ocorre tendo por base as Subsecções Estatísticas (SSE) da cidade de Lisboa (INE, 2011) e o sistema proposto inclui assim a extração de indicadores divididos tematicamente em indicadores de área e indicadores de volume. Os resultados obtidos permitem relacionar as áreas verdes, a população e o volume construído.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.