154 resultados para Localização automática
Resumo:
Tese de doutoramento em Linguística, especialidade de Lexicologia - Terminologia
Resumo:
Relatório de Estágio apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Tradução – Especialização em Inglês
Resumo:
O problema dos sistemas de software legados sem documentação ou com documentação obsoleta, continua a ser uma realidade no mundo empresarial. O progressivo aumento da dimensão e complexidade dos sistemas desenvolvidos vem aumentar a necessidade de existirem mecanismos de modelação e documentação de apoio às actividades de manutenção e teste. Apesar da investigação que tem sido levada a cabo para tentar apresentar cada vez melhores abordagens à resolução deste problema,o seu uso no mundo empresarial ainda é muito esparso. Tal deve-se, pelo menos em parte, ao facto de muitas das abordagens propostas acabarem por representar um acrescento do esforço e do tempo, que as organizações não estão em condições de disponibilizar. Esta dissertação contribui com uma abordagem automatizada de suporte às actividades de documentação de sistemas, de manutenção e de testes. Para demonstrar a aplicabilidade e usabilidade da abordagem, propõe-se a implementação de uma ferramenta de apoio. A abordagem proposta baseia-se em técnicas já existentes e consolidadas, mas propõe extensões que permitem melhorar a sua integração,usabilidade e eficiência na sua aplicação. O problema fulcral aqui tratado é a inexistência ou insuficiência de documentação sobre os sistemas desenvolvidos. De modo a mitigar este problema, é apresentado um mecanismo de recuperação da modelação dinâmica de sistemas legados e respectiva geração de artefactos documentais,nomeadamente diagramas de sequência (UML), cartões CRC e matrizes de CRUD. Finalmente, introduzem-se técnicas de rastreabilidade e de apoio a testes de qualidade e cobertura para os sistemas construídos, usando uma metáfora de coloração de diagramas UML.
Resumo:
A deteção de dano em estruturas é um problema que tem preocupado a comunidade científica nas últimas décadas. O grande objetivo das metodologias desenvolvidas até à data é a deteção do dano numa fase tão precoce quanto possível, evitando a existência de danos materiais e humanos e a possibilidade de falha catastrófica das estruturas. Quando se fala de dano surgem cinco questões muito importantes que importa responder, (i) Existe dano? (Deteção), (ii) Onde está o dano? (Localização); (iii) Quanto e quão grave é o dano? (Quantificação), (iv) Que tipo de dano existe? (Classificação), e (v) Quanto tempo vai permanecer a estrutura operacional? (Previsão). Neste trabalho pretende-se implementar vários métodos de deteção e localização de dano (desenvolvidos por diversos autores) e aferir sobre a sua eficiência e robustez quando são utilizados dados obtidos quer pela via numérica quer pela via experimental. Por forma a tornar comparável os dados obtidos pelas duas vias, foi realizado um estudo numérico do efeito do ruído na eficiência dos vários métodos de deteção e localização do dano e desenvolvida uma nova abordagem que diminua as consequências do mesmo. Foi ainda estudada a influência da gama de frequências utilizada, bem como o estudo do efeito da localização das forças aplicadas na análise do dano. Para este último foram realizados diversos testes onde os indicadores foram submetidos a diferentes casos de excitação.
Resumo:
As sociedades actuais defrontam-se com vários desafios de índole ambiental, sendo de particular destaque a produção crescente de resíduos sólidos urbanos. Pretende-se a longo prazo passar de uma sociedade de consumo desenfreado e de desperdício para uma sociedade de reciclagem, na qual a produção de resíduos sólidos urbanos é mínima e estes são vistos como um recurso a valorizar. Para isso, os RSU não devem ser encarados como um objecto indiferenciado, mas sim separados nas suas várias componentes. Estes constituintes devem ser analisados do ponto de vista físicoquímico e encaminhados para o ou os locais mais apropriados ao seu tratamento. Os Sistemas de Informação Geográfica desempenham um papel fundamental como ferramenta de apoio à decisão, permitindo determinar qual a instalação de tratamento mais próxima do local de geração de RSU e a área de influência do ponto de vista do produtor de RSU e das instalações de tratamento de resíduos (ponto de vista do licenciamento e planeamento), o que se consegue através de análise de redes, isto é, operações de simulação em ambiente computacional que permitem determinar o caminho mais curto entre dois pontos e optimizar as distâncias. Portugal tem vindo a evoluir o seu sistema de gestão de RSU de acordo com as orientações internacionais, que pretendem reduzir o volume de resíduos depositado em aterros, retirando ao RSU a fracção biodegradável para posterior valorização orgânica e produção de composto com valor acrescentado. No entanto, temos vindo a falhar no cumprimento das metas de reciclagem e no correcto encaminhamento de resíduos, sendo ainda a percentagem maioritária colocada em aterro sanitário. Este trabalho tem como objectivo fornecer uma ferramenta que permita determinar os vários destinos adequados ao tratamento de um determinado resíduo e encontrar, com o apoio da informação geográfica, a instalação mais próxima de um dado local de geração e a área de influência do ponto de vista do produtor/ gestor do RSU e do licenciamento e planeamento de novas instalações. Pretende-se desta forma minimizar os custos em transporte e verificar se uma dada área está bem servida em termos de estações de tratamento, não só em número, mas também em tipo. Esta ferramenta foi aplicada na Área Metropolitana de Lisboa, que é responsável por cerca de 30% da produção de resíduos a nível nacional e aglomera mais de um quarto da população nacional. Conclui-se que a Área Metropolitana de Lisboa está bem servida a nível de estações de tratamento, especialmente ecocentros e estações de triagem e principalmente na região a Sul do Tejo e no concelho de Lisboa. Nota-se que a distância de pontos de geração escolhidos a título de exemplo aos locais mais adequados para tratamento da maior percentagem do constituinte de RSU varia entre 4 e 53 km, sendo a maior distância devida à localização da única instalação de valorização energética da AML. De uma forma geral, os locais de tratamento encontram-se a distâncias inferiores a 30 km (excepto a zona de Mafra), não justificando a instalação de estações de transferência nos locais considerados. Contudo, alerta-se para a importância da instalação de estações de transferência em aglomerados populacionais com maior produção de resíduos, com o objectivo de concentrar os RSU num único local e minimizar a frequência de transporte. Finalmente, destaca-se o investimento em novas infraestruturas, principalmente por parte da empresa AMTRES / Tratolixo, que é responsável pela gestão de resíduos em Cascais, Oeiras, Sintra e Mafra, concelhos que apresentam maiores lacunas ao nível das instalações de tratamento de resíduos. Considera-se importante o estabelecimento de protocolos entre as várias entidades gestoras, de forma a garantir o correcto encaminhamento dos resíduos e a minimização do seu transporte.
Resumo:
Sistemas de gestão documental e de recuperação de informação são hoje ferramentas essenciais para aceder aos grandes volumes de informação disponíveis. O exemplo mais popular deste cenário é o motor de pesquisa Google, que se estimava possuir cerca de 45 milhares de milhões de páginas Web, em Março de 2013 [14]. Uma vez que a maioria das pessoas, apenas consultam os primeiros dez resultados duma pesquisa, torna-se crucial conseguir uma boa ordenação das respostas, de forma a permitir que o utilizador veja os resultados contendo informação diversificada, de acordo com as suas preferências e indo ao encontro daquilo que escreveu na pesquisa. Além do objetivo de ordenação segundo a query escrita pelo utilizador, também foi tido como objetivo a remoção de documentos similares do topo dos resultados das pesquisas. Nesta tese, pretendemos investigar o uso de algoritmos de aprendizagem de ordenação de resultados, por forma a aumentar a qualidade dos resultados de topo das pesquisas e analisar algumas maneiras para aumentar a diversidade de informação no topo dos resultados das pesquisas. Uma aplicação foi desenvolvida no contexto desta tese e foi aplicada a um sistema de pesquisa que foi desenvolvido em contexto empresarial com a Quidgest S.A, sendo que posteriormente irá ser integrada numa plataforma de desenvolvimento rápido de aplicações.
Resumo:
Neste trabalho apresenta-se uma metodologia protótipo destinada a efectuar a modelação automática a 2D da morfologia de mineralizações filonianas. Em primeiro lugar procede-se à estimação do número de ocorrências de filões em cada bloco, de uma malha de blocos, em que se subdividiu o volume em estudo. Esta intensidade de ocorrências é quantificada por uma variável que representa o número de filões por metro linear(NFM) intersectados por uma sondagem vertical, e constitui o objectivo de intensidade a atingir. Seguidamente são gerados por simulação, linhas poligonais ou arcos correspondentes ao posicionamento dos filões no perfil. Estes arcos ligam alguns pares de intersecções de filões amostrados nas sondagens e são escolhidos ao acaso segundo regras de orientação e distância. Seguidamente faz-se a avaliação da intensidade local de filões do modelo e, para os locais onde exista défice de filões relativamente ao objectivo, são adicionadas intersecções virtuais, ou seja, que não foram reconhecidas por sondagens. Este procedimento continua até o modelo dos filões se aproximar do objectivo previamente definido. O conjunto dos arcos em cada perfil, associado às espessuras de intersecção observadas nas sondagens, constitui um modelo morfológico dos filões em estrutura vectorial. No final faz-se a avaliação quantitativa do modelo e da incerteza. Os dados do estudo prático que motivaram o desenvolvimento da metodologia foram recolhidos no depósito mineral das Minas da Panasqueira. Os resultados obtidos no estudo mostram que a introdução de uma metodologia automática para a modelação vectorial de filões mineralizados é uma mais-valia, porque permite gerar modelos mais realistas e com melhor controlo geológico e resolução do que as abordagens clássicas de possança e acumulação, constituindo um auxiliar precioso de avaliação de reservas de minério.
Resumo:
O crescente poder computacional dos dispositivos móveis e a maior eficiência dos navegadores fomentam a construção de aplicações Web mais rápidas e fluídas, através da troca assíncrona de dados em vez de páginas HTML completas. A OutSystems Platform é um ambiente de desenvolvimento usado para a construção rápida e validada de aplicaçõesWeb, que integra numa só linguagem a construção de interfaces de utilizador, lógica da aplicação e modelo de dados. O modelo normal de interação cliente-servidor da plataforma é coerente com o ciclo completo de pedido-resposta, embora seja possível implementar, de forma explícita, aplicações assíncronas. Neste trabalho apresentamos um modelo de separação, baseado em análise estática sobre a definição de uma aplicação, entre os dados apresentados nas páginas geradas pela plataforma e o código correspondente à sua estrutura e apresentação. Esta abordagem permite a geração automática e transparente de interfaces de utilizador mais rápidas e fluídas, a partir do modelo de uma aplicação OutSystems. O modelo apresentado, em conjunto com a análise estática, permite identificar o subconjunto mínimo dos dados a serem transmitidos na rede para a execução de uma funcionalidade no servidor, e isolar a execução de código no cliente. Como resultado da utilização desta abordagem obtém-se uma diminuição muito significativa na transmissão de dados, e possivelmente uma redução na carga de processamento no servidor, dado que a geração das páginasWeb é delegada no cliente, e este se torna apto para executar código. Este modelo é definido sobre uma linguagem, inspirada na da plataforma OutSystems, a partir da qual é implementado um gerador de código. Neste contexto, uma linguagem de domínio específico cria uma camada de abstração entre a definição do modelo de uma aplicação e o respetivo código gerado, tornando transparente a criação de templates clientside e o código executado no cliente e no servidor.
Resumo:
Na cadeia de produção de cartografia digital, que se encontra implementada no IGeoE, existe a necessidade de efetuar a restituição de objetos através da vetorização 3D. Sendo este processo completamente manual, o operador identifica e adquire os objetos, em ambiente estereoscópico, segundo as regras estabelecidas nas normas de aquisição. A aquisição de construções, nomeadamente os edifícios, são dos objetos que mais recursos consomem devido à sua frequência e dificuldade de restituição. A possibilidade de simplificar esta parte do processo proporciona um beneficio substancial para toda a cadeia de produção. Pretende-se assim detetar edifícios em fotografias aéreas, extraindo a sua informação planimétrica e altimétrica, para posterior inserção num SIG. Para a obtenção da altimetria são utilizados os princípios de fotogrametria analítica através das equações de colinearidade. Este problema torna-se relevante devido ao facto de se pretender retirar informação de fotografias, que possuem bastante informação, com recurso à computação gráfica, através de técnicas de segmentação em vários níveis e fotogrametria, juntando assim duas áreas do saber. Esta solução permite automatizar um processo que é predominantemente manual, contribuindo para melhorar a cadeia de produção sem a alteração de funcionamento da mesma.
Resumo:
Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.
Resumo:
A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.
Resumo:
Tese de doutoramento em Engenharia do Ambiente, especialidade em Sistemas Sociais
Resumo:
The principal topic of this work is the application of data mining techniques, in particular of machine learning, to the discovery of knowledge in a protein database. In the first chapter a general background is presented. Namely, in section 1.1 we overview the methodology of a Data Mining project and its main algorithms. In section 1.2 an introduction to the proteins and its supporting file formats is outlined. This chapter is concluded with section 1.3 which defines that main problem we pretend to address with this work: determine if an amino acid is exposed or buried in a protein, in a discrete way (i.e.: not continuous), for five exposition levels: 2%, 10%, 20%, 25% and 30%. In the second chapter, following closely the CRISP-DM methodology, whole the process of construction the database that supported this work is presented. Namely, it is described the process of loading data from the Protein Data Bank, DSSP and SCOP. Then an initial data exploration is performed and a simple prediction model (baseline) of the relative solvent accessibility of an amino acid is introduced. It is also introduced the Data Mining Table Creator, a program developed to produce the data mining tables required for this problem. In the third chapter the results obtained are analyzed with statistical significance tests. Initially the several used classifiers (Neural Networks, C5.0, CART and Chaid) are compared and it is concluded that C5.0 is the most suitable for the problem at stake. It is also compared the influence of parameters like the amino acid information level, the amino acid window size and the SCOP class type in the accuracy of the predictive models. The fourth chapter starts with a brief revision of the literature about amino acid relative solvent accessibility. Then, we overview the main results achieved and finally discuss about possible future work. The fifth and last chapter consists of appendices. Appendix A has the schema of the database that supported this thesis. Appendix B has a set of tables with additional information. Appendix C describes the software provided in the DVD accompanying this thesis that allows the reconstruction of the present work.
Resumo:
Este trabalho de investigação analisa os aspectos psico-sociais e técnicos dos resíduos nos hospitais, fundamentalmente a preferência por dispositivos médicos (DM) reutilizáveis ou descartáveis e a separação de resíduos, tanto para reciclagem como nos grupos definidos pela legislação. Aborda, também, os riscos para a saúde e a percepção de risco induzidos pelos resíduos hospitalares (RH). A parte prática é efectuada em seis hospitais, sendo acompanhados entre oito e doze serviços por hospital. Na selecção destes hospitais foram considerados critérios que permitem a respectiva diferenciação em dois grupos, de acordo com as características (especializados/distritais) e com a localização geográfica (a norte/a sul). Os instrumentos de observação utilizados são: observação directa, entrevistas e questionários. Com a parte prática procura-se conhecer a evolução temporal dos aspectos anteriormente referidos, mas também as diferenças existentes entre grupos de hospitais, entre grupos de profissionais de saúde e entre grupos de profissionais com diferentes opções de gestão de RH. Tendo por base esta subdivisão, apresentam-se os principais resultados: * Evolução temporal. No espaço de um ano observa-se um acréscimo acentuado na preferência por DM descartáveis, contudo também se regista um aumento do conhecimento sobre a separação dos RH por grupos e uma diminuição da percepção de risco. * Grupos de hospitais. Nos hospitais especializados e nos hospitais a norte verifica-se um menor conhecimento sobre os vários aspectos inerentes aos RH e uma maior percepção de risco associada, comparativamente aos hospitais distritais e a sul. Neste últimos, é maior a preferência por descartáveis. * Grupos de profissionais de saúde. O grupo dos enfermeiros apresenta maior conhecimento sobre RH e uma percepção de risco mais elevada em oposição ao grupo dos médicos. O grupo dos auxiliares de acção médica demonstra maior divergência entre a percepção e a realidade, apresentando, também, a maior preferência por descartáveis. * Grupos de profissionais com diferentes opções de gestão de resíduos. Os profissionais que optam preferencialmente por descartáveis têm percepções de risco mais elevadas que os que preferem os reutilizáveis. Os recicladores estão mais despertos para os problemas dos RH que os não recicladores, sendo a formação sobre o tema um aspecto importante. Também, os profissionais que separaram mais correctamente os RH por grupos são os que têm mais conhecimento sobre o tema e uma percepção de risco mais aproximada da definida na legislação. Estes resultados podem dar um grande contributo na gestão de RH, nomeadamente se forem incluídos nos correspondentes planos e políticas
Resumo:
Os estuários e sapais estuarinos são zonas húmidas que, devido à sua localização privilegiada e características únicas de riqueza natural, atraíram desde há muito populações que se fixaram nas suas margens, constituindo pólos de desenvolvimento e concentração de actividades humanas, sofrendo o impacte negativo da acção antrópica, principalmente durante o século XX. No presente estudo, cujo tema central é o ambiente de sapal do estuário do Sado (Península de Setúbal), apresentam-se resultados de um estudo sedimentológico e geoquímico de uma sondagem curta, recolhida no sapal do Faralhão (margem norte do estuário), visando contribuir para a caracterização geoambiental dos ecossistemas de sapal deste estuário e para a identificação da contribuição antrópica em metais pesados nos sedimentos vasosos estudados. Perspectivando uma aplicação pedagógica, apresenta-se uma proposta de estudo do sapal de Corroios (estuário do Tejo), composta por diversos materiais de apoio ao trabalho de campo e de laboratório, direccionados para alunos do ensino secundário. Com esta proposta, pretende-se contribuir para a sensibilização dos professores para a necessidade de, junto dos seus alunos, promoverem motivações que conduzam ao estudo dos ecossistemas de sapal, perspectivando a consciencialização da vulnerabilidade destes ambientes e a assumpção de medidas de defesa do património natural.