6 resultados para Extração semi-automática

em RUN (Repositório da Universidade Nova de Lisboa) - FCT (Faculdade de Cienecias e Technologia), Universidade Nova de Lisboa (UNL), Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O arroz é o alimento básico para milhões de pessoas no Mundo inteiro. Como tal, o seu valor nutricional é algo de extrema importância. Contudo, ao seu processamento está associado um desperdício dos resíduos que advêm do seu descasque e branqueamento, o farelo e a casca. O principal objetivo deste trabalho consistiu no estudo do valor nutricional do grão de arroz e da valorização dos resíduos (farelo e casca) através da avaliação da atividade antioxidante. O estudo foi aplicado a três frações do bago de arroz: grão, farelo e casca, de três subvariedades diferentes: opale, ariete e ellebi. Foi avaliado o perfil de macronutrientes nas amostras de arroz, entre eles o teor de humidade, cinza, proteína e gordura. O grão foi a fração que apresentou maior teor de humidade, o farelo a que apresentou maior teor de gordura e proteína e a casca maior teor de cinza. Os compostos bioativos foram extraídos pelo método de extração sólido-liquido, usando como solvente uma mistura aquosa de metanol. A caracterização dos compostos antioxidantes dos extratos foi analisada através do teste da eliminação dos radicais livres de DPPH (2,2-difenil-1-picrilhidrazilo) e pelo método de Folin-Ciocalteau. Para a identificação dos compostos bioativos foi utilizada a técnica de UPLC-PDA (Cromatografia líquida de ultra eficiência - Detetor de matriz de Fotodíodos). A casca foi o extrato que continha uma maior capacidade antioxidante e um maior conteúdo de fenólicos totais (TPC), e o extrato do grão o que apresentou menor valor. Identicamente, foi na casca onde se conseguiu identificar um maior número de compostos, entre os quais se destacam os ácidos gentísico, isoferúlico, vanílico, elágico, p-cumárico e levulínico. A extração de compostos antioxidantes de farelo e casca de arroz demonstrou ser uma via bastante promissora para a valorização destes resíduos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao longo dos Pensamentos, Pascal expressa a sua antipatia filosófica por alguns tipos de pensadores. Um desses tipos de pensadores corresponde à figura do "demi-savant". Os "demi-savants", ou semi-sábios, caracterizam-se essencialmente por uma pretensão de saber fracassada: são homens que julgam estar na posse de um saber que na verdade não possuem. O objectivo desta investigação é fixar, com o maior detalhe possível, o que está em causa na denúncia dos semi-sábios — um aspecto pouco trabalhado no âmbito dos estudos sobre o pensamento de Pascal. A primeira parte da investigação consiste assim na delimitação formal da categoria semi-sábios. Quais são as notas definitórias destes pensadores? Que tipo de erro está em jogo na sua atitude? Que opiniões fazem de alguém um semi-sábio? Estas perguntas acabam rapidamente por nos levar a outras, que dizem directamente respeito à tentativa de determinação do poder de fogo da razão humana. Com efeito, o fundamento filosófico da crítica aos semi-sábios é o diagnóstico arrasador que Pascal faz da capacidade da nossa razão na tarefa do conhecimento — de tal modo que estudar o problema que os semi-sábios representam é estudar sob um determinado ângulo o problema geral da procura da verdade. Nesse sentido, depois de esclarecido o significado da designação semi-sábio, analisamos dois argumentos apresentados nos Pensamentos que visam contestar a compreensão habitualmente constituída acerca das possibilidades do homem na tarefa do conhecimento. Procuramos ainda, por último, desfazer possíveis equívocos quanto à fixação da posição de Pascal no campo da epistemologia. Embora haja poucas referências aos semi-sábios nos textos que compõem os Pensamentos, trata-se de uma figura que funciona como ponto de cruzamento de vários aspectos relevantes de um problema que está no centro do projecto apologético de Pascal: o problema do modo de apuramento da verdade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas o aumento da expansão das áreas urbanas conduziu a rápidas mudanças nos ambientes urbanos. Estas mudanças necessitam de uma observação e compreensão, por forma a permitir a monitorização e avaliação do processo de planeamento urbano. A utilização de dados obtidos por Deteção Remota (DR), aliada aos Sistemas de Informação Geográfica (SIG), surge como uma fonte de informação válida para modelar, recolher, armazenar, exibir e analisar os sistemas urbanos. Neste contexto, a informação planimétrica e altimétrica recolhida por sensores remotos pode ser explorada por forma a extrair informação acerca do uso e ocupação do solo, e apresenta-la sob a forma de indicadores para apoio à decisão. Um sistema de indicadores urbanos baseados em dados obtidos por DR constitui uma ferramenta para as cidades transmitirem os diferentes riscos urbanos bem como na promoção de medidas e estratégias para um eficiente planeamento urbano. A dissertação de mestrado proposta tem como principal objetivo a criação de um sistema de indicadores urbanos que caracterize a cidade de Lisboa ao nível das áreas verdes e do volume construído. Assim, de forma a atingir o objetivo principal é desenvolvida uma metodologia baseada em informação altimétrica e planimétrica que permite analisar as áreas verdes da cidade de Lisboa bem como o volume construído. A informação altimétrica urbana (3D) é derivada de dados cartográficos oficiais (curvas de nível que originam um Modelo Digital de Terreno) e informação recolhida por LiDAR (Light Detection And Ranging) (que representa o Modelo Digital de Superfície). A informação 2D é extraída de uma imagem do satélite de alta resolução Worldview-2 de 2010, com um pixel de 0,5m, do concelho de Lisboa, através de técnicas de processamento digital de imagem. A informação recolhida permite, por um lado a modelação 3D do edificado, e por outro a quantificação 2D da cobertura vegetal em meio urbano. Posteriormente, num ambiente SIG, a informação extraída é cruzada com dados censitários e dados de uso e ocupação do solo. A análise ocorre tendo por base as Subsecções Estatísticas (SSE) da cidade de Lisboa (INE, 2011) e o sistema proposto inclui assim a extração de indicadores divididos tematicamente em indicadores de área e indicadores de volume. Os resultados obtidos permitem relacionar as áreas verdes, a população e o volume construído.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.