1000 resultados para Classificação automática de texto
Resumo:
O problema dos sistemas de software legados sem documentação ou com documentação obsoleta, continua a ser uma realidade no mundo empresarial. O progressivo aumento da dimensão e complexidade dos sistemas desenvolvidos vem aumentar a necessidade de existirem mecanismos de modelação e documentação de apoio às actividades de manutenção e teste. Apesar da investigação que tem sido levada a cabo para tentar apresentar cada vez melhores abordagens à resolução deste problema,o seu uso no mundo empresarial ainda é muito esparso. Tal deve-se, pelo menos em parte, ao facto de muitas das abordagens propostas acabarem por representar um acrescento do esforço e do tempo, que as organizações não estão em condições de disponibilizar. Esta dissertação contribui com uma abordagem automatizada de suporte às actividades de documentação de sistemas, de manutenção e de testes. Para demonstrar a aplicabilidade e usabilidade da abordagem, propõe-se a implementação de uma ferramenta de apoio. A abordagem proposta baseia-se em técnicas já existentes e consolidadas, mas propõe extensões que permitem melhorar a sua integração,usabilidade e eficiência na sua aplicação. O problema fulcral aqui tratado é a inexistência ou insuficiência de documentação sobre os sistemas desenvolvidos. De modo a mitigar este problema, é apresentado um mecanismo de recuperação da modelação dinâmica de sistemas legados e respectiva geração de artefactos documentais,nomeadamente diagramas de sequência (UML), cartões CRC e matrizes de CRUD. Finalmente, introduzem-se técnicas de rastreabilidade e de apoio a testes de qualidade e cobertura para os sistemas construídos, usando uma metáfora de coloração de diagramas UML.
Resumo:
A rastreabilidade dos requisitos de software nos sistemas legados é um problema recorrente na maioria das empresas. Existem várias causas para este problema, mas as razões principais estão na falta de documentação e unem-se à inexistência de um suporte adequado que permita manter a rastreabilidade entre os requisitos, o desenho e o código fonte de um sistema de software. Nos casos em que existe alguma documentação do sistema esta apresenta-se normalmente na forma de documentos de texto não estruturado, escritos em língua natural. A falta de um standard para representar a informação, torna mais difícil perceber a estrutura e a complexidade de um sistema legado. Esta dissertação vem tentar mitigar o problema apresentado, da falta de rastreabilidade entre os requisitos e a implementação, propondo uma abordagem inovadora designada por Cenários Visuais. A técnica proposta tenta mitigar o problema que existe da rastreabilidade do software e vai facilitar a compreensão do sistema por parte de todos os envolvidos, desde a sua criação até às fases posteriores do seu ciclo de vida. Os cenários visuais são filmagens da execução de cenários, onde é possível encontrar informação adicional sobre as iterações entres os componentes de um sistema. Os cenários visuais são uma representação dinâmica e sincronizada entre duas perspectivas de um sistema de software. A primeira corresponde à perspectiva do utilizador do sistema (caixa preta) e é constituída por um filme descrevendo cada cenário de um caso de utilização. A segunda corresponde à perspectiva do construtor de sistemas de software (caixa branca) e é concretizada por um diagrama de sequência (UML). O processo de criação de um cenário visual servirá de suporte para a criação automática de documentação de sistemas legados e facilitará a validação dos requisitos de um sistema de software. Em suma, espera-se que com esta dissertação a compreensão de um sistema de software legado possa vir a ser melhorada.
Resumo:
Bolsista de Doutorado (SFRH/BD/77667/2011) da Fundação de Ciência e Tecnologia, Portugal.
Resumo:
O desenvolvimento das tecnologias associadas à Detecção Remota e aos Sistemas de Informação Geográfica encontram-se cada vez mais na ordem do dia. E, graças a este desenvolvimento de métodos para acelerar a produção de informação geográfica, assiste-se a um crescente aumento da resolução geométrica, espectral e radiométrica das imagens, e simultaneamente, ao aparecimento de novas aplicações com o intuito de facilitar o processamento e a análise de imagens através da melhoria de algoritmos para extracção de informação. Resultado disso são as imagens de alta resolução, provenientes do satélite WorldView 2 e o mais recente software Envi 5.0, utilizados neste estudo. O presente trabalho tem como principal objectivo desenvolver um projecto de cartografia de uso do solo para a cidade de Maputo, com recurso ao tratamento e à exploração de uma imagem de alta resolução, comparando as potencialidades e limitações dos resultados extraídos através da classificação “pixel a pixel”, através do algoritmo Máxima Verossimilhança, face às potencialidades e eventuais limitações da classificação orientada por objecto, através dos algoritmos K Nearest Neighbor (KNN) e Support Vector Machine (SVM), na extracção do mesmo número e tipo de classes de ocupação/uso do solo. Na classificação “pixel a pixel”, com a aplicação do algoritmo classificação Máxima Verosimilhança, foram ensaiados dois tipos de amostra: uma primeira constituída por 20 classes de ocupação/uso do solo, e uma segunda por 18 classes. Após a fase de experimentação, os resultados obtidos com a primeira amostra ficaram aquém das espectativas, pois observavam-se muitos erros de classificação. A segunda amostra formulada com base nestes erros de classificação e com o objectivo de os minimizar, permitiu obter um resultado próximo das espectativas idealizadas inicialmente, onde as classes de interesse coincidem com a realidade geográfica da cidade de Maputo. Na classificação orientada por objecto foram 4 as etapas metodológicas utilizadas: a atribuição do valor 5 para a segmentação e 90 para a fusão de segmentos; a selecção de 15 exemplos sobre os segmentos gerados para cada classe de interesse; bandas diferentemente distribuídas para o cálculo dos atributos espectrais e de textura; os atributos de forma Elongation e Form Factor e a aplicação dos algoritmos KNN e SVM. Confrontando as imagens resultantes das duas abordagens aplicadas, verificou-se que a qualidade do mapa produzido pela classificação “pixel a pixel” apresenta um nível de detalhe superior aos mapas resultantes da classificação orientada por objecto. Esta diferença de nível de detalhe é justificada pela unidade mínima do processamento de cada classificador: enquanto que na primeira abordagem a unidade mínima é o pixel, traduzinho uma maior detalhe, a segunda abordagem utiliza um conjunto de pixels, objecto, como unidade mínima despoletando situações de generalização. De um modo geral, a extracção da forma dos elementos e a distribuição das classes de interesse correspondem à realidade geográfica em si e, os resultados são bons face ao que é frequente em processamento semiautomático.
Classificação da ocupação do solo através da segmentação de uma imagem de satélite de alta resolução
Resumo:
Este caso de estudo tem como objetivo demonstrar a utilidade da utilização de imagens de satélite de alta resolução para a produção de cartografia temática em áreas urbanas, bem como, experimentar a extracção de elementos de uma imagem de alta resolução a partir de protocolos de segmentação, aplicando uma abordagem orientada por regiões, e recorrendo a dados de uma cena do satélite WorldView2 com as suas novas 4 bandas adicionais. Definiu-se uma nomenclatura de ocupação de solo com base na fotointerpretação da imagem, criou-se uma legenda hierarquizada por 3 níveis de desagregação. No primeiro nível incluiu-se sete classes, no segundo nível as classes foram classificadas pelo nome dos objetos identificados na fotointerpretação, e o terceiro nível foram classificados pelas características dos objetos definidos no nível anterior. Foram criados segmentos de treino através do algoritmo da segmentação, que tem como função criar segmentos vetoriais com base na similaridade espectral e no valor espectral dos conjuntos dos pixéis vizinhos, testou-se varios parâmetros de segmentação de modo a obter o nível de segmentação que visivelmente na imagem se aproximasse mais aos objetos reconhecidos, para assim se gerar as assinaturas espectrais dos objetos representados pela segmentação, procedendo-se à classificação de ocupação de solo baseada nos segmentos.
Resumo:
A discussão em torno da direccionalidade em Estudos de Tradução tende a focar-se na tradução para a língua materna. De facto, um:ds:“regrs:de:ouro” das organizações internacionais e associações de tradutores profissionais diz-nos que a tradução deve ser sempre realizada por um tradutor cuja língua materna seja a língua de chegada. No entanto, a retroversão é, em certos casos, inevitável e continua a ser praticada em todo o mundo. A tradução do texto desportivo, por outro lado, é um tema pouco abordado do ponto de vista teórico e merece mais atenção. O projecto principal do estágio relatado neste trabalho é um excelente exemplo das dificuldades de tradução específicas causadas quer pela tradução do português para o inglês, quer pela tradução de um texto dedicado ao desporto, as quais podem ser observadas através de exemplos numa abordagem prática.
Resumo:
Sistemas de gestão documental e de recuperação de informação são hoje ferramentas essenciais para aceder aos grandes volumes de informação disponíveis. O exemplo mais popular deste cenário é o motor de pesquisa Google, que se estimava possuir cerca de 45 milhares de milhões de páginas Web, em Março de 2013 [14]. Uma vez que a maioria das pessoas, apenas consultam os primeiros dez resultados duma pesquisa, torna-se crucial conseguir uma boa ordenação das respostas, de forma a permitir que o utilizador veja os resultados contendo informação diversificada, de acordo com as suas preferências e indo ao encontro daquilo que escreveu na pesquisa. Além do objetivo de ordenação segundo a query escrita pelo utilizador, também foi tido como objetivo a remoção de documentos similares do topo dos resultados das pesquisas. Nesta tese, pretendemos investigar o uso de algoritmos de aprendizagem de ordenação de resultados, por forma a aumentar a qualidade dos resultados de topo das pesquisas e analisar algumas maneiras para aumentar a diversidade de informação no topo dos resultados das pesquisas. Uma aplicação foi desenvolvida no contexto desta tese e foi aplicada a um sistema de pesquisa que foi desenvolvido em contexto empresarial com a Quidgest S.A, sendo que posteriormente irá ser integrada numa plataforma de desenvolvimento rápido de aplicações.
Resumo:
Neste trabalho apresenta-se uma metodologia protótipo destinada a efectuar a modelação automática a 2D da morfologia de mineralizações filonianas. Em primeiro lugar procede-se à estimação do número de ocorrências de filões em cada bloco, de uma malha de blocos, em que se subdividiu o volume em estudo. Esta intensidade de ocorrências é quantificada por uma variável que representa o número de filões por metro linear(NFM) intersectados por uma sondagem vertical, e constitui o objectivo de intensidade a atingir. Seguidamente são gerados por simulação, linhas poligonais ou arcos correspondentes ao posicionamento dos filões no perfil. Estes arcos ligam alguns pares de intersecções de filões amostrados nas sondagens e são escolhidos ao acaso segundo regras de orientação e distância. Seguidamente faz-se a avaliação da intensidade local de filões do modelo e, para os locais onde exista défice de filões relativamente ao objectivo, são adicionadas intersecções virtuais, ou seja, que não foram reconhecidas por sondagens. Este procedimento continua até o modelo dos filões se aproximar do objectivo previamente definido. O conjunto dos arcos em cada perfil, associado às espessuras de intersecção observadas nas sondagens, constitui um modelo morfológico dos filões em estrutura vectorial. No final faz-se a avaliação quantitativa do modelo e da incerteza. Os dados do estudo prático que motivaram o desenvolvimento da metodologia foram recolhidos no depósito mineral das Minas da Panasqueira. Os resultados obtidos no estudo mostram que a introdução de uma metodologia automática para a modelação vectorial de filões mineralizados é uma mais-valia, porque permite gerar modelos mais realistas e com melhor controlo geológico e resolução do que as abordagens clássicas de possança e acumulação, constituindo um auxiliar precioso de avaliação de reservas de minério.
Resumo:
Estudo descritivo e exploratório correlacionando o ML Flow, a baciloscopia e a classificação em paucibacilar (PB) e multibacilar (MB), envolveu 1.041 casos novos com hanseníase em 13 municípios de Minas Gerais, de outubro de 2002 a março de 2004. A concordância entre o ML Flow e a classificação pelo número de lesões cutâneas e a baciloscopia foi moderada (Kappa:0,51 e 0,48, respectivamente) e, substancial (Kappa:0,77) com a classificação final. De janeiro de 2000 a março de 2004, a proporção de casos novos MB no Estado, passou de 78,1 para 65,8%. A queda no percentual de MB foi maior nos serviços participantes da pesquisa ML Flow (73,1 para 53,3%). A diferença de PB e MB nos serviços participantes e não participantes, de janeiro a março de 2004, foi estatisticamente significativa, indicando implicação direta e benéfica no tratamento e no controle da endemia em Minas Gerais.
Resumo:
Nesta dissertação descreve-se um estudo de análise e avaliação do risco ocupacional dos trabalhadores de uma empresa de transportes de passageiros, trabalho este que serviu para satisfazer uma necessidade periódica da própria empresa. A empresa de transportes em causa pediu anonimato e, por isso, será designada por empresa Alfa. Para o efeito, aplicou-se o Método de Avaliação de Risco Simplificado (MARS), com o intuito de analisar as tarefas dos seus trabalhadores, permitindo mapear os perigos e avaliar os riscos associados às mesmas. O objetivo específico do estudo foi o de avaliar a magnitude dos riscos existentes por categoria profissional e atividade, de forma a implementar medidas de controlo concretas e focadas em cada categoria abrangida. Aquando da realização deste trabalho, a empresa sugeriu a aplicação de uma metodologia diferente da utilizada anteriormente, embora também de “espectro largo”. Assim, foi utilizado o MARS. A este método genérico, a autora desta dissertação incluiu algumas modificações, nomeadamente a inclusão de sistemas de classificação harmonizados, para distinguir risco de acidente e risco para a doença. Os resultados obtidos permitiram identificar que as categorias profissionais de Maquinista e Encarregado de Tração são aquelas que apresentam risco mais elevado. Das sete categorias analisadas, os riscos mais relevantes para acidente de trabalho foram caraterizados por três variáveis chave; para a variável Contato, a modalidade de acidente mais grave é o contato com chama viva ou ambiente (cód.13), os Tipos de Lesão associados a este contato são as queimaduras (cód.061) e asfixia (cód.081), que podem atingir múltiplas Partes do Corpo (cód.78). Outra situação de risco importante é a falha na manutenção de comboios, que pode provocar a perda de controlo do veículo, e assim causar um acidente ferroviário grave, não só com o comboio, mas também com os seus passageiros. Por último, e apenas para o maquinista, a tarefa da travagem da carruagem em situação de emergência acarreta perigos distintos, mas todos eles associados ao mesmo tipo de acidente ferroviário (risco operacional). Já no que respeita às afeções da saúde e doenças profissionais, os riscos mais importantes identificados neste estudo são a tensão psíquica, o stresse, a diminuição da acuidade auditiva e a hipocusia. As medidas de controlo prioritárias são: o bom funcionamento do sistema AVAC e desenfumagem, os simulacros contra incêndio, o funcionamento dos sistemas de deteção de incêndios e dos sistemas de extinção automática de incêndios por água e a manutenção eficaz dos comboios. Este estudo demonstrou ser vantajoso o uso do sistema de classificação harmonizado de acidentes de trabalho (EEAT) do Eurostat (2001), a classificação de doenças profissionais do DR 76/2006 e outras afeções para a saúde, para caraterizar o perigo e o tipo de risco. É um benefício para as empresas a utilização desta terminologia, para efetuar uma AAR consistente e detalhada, ao qual acresce a vantagem de permitir comparar resultados internos com estatísticas nacionais e internacionais, desde que sejam aplicados sistematicamente estes sistemas de classificação.
Resumo:
Ao fazermos uma rememoração daquilo que pensávamos quando iniciámos o nosso percurso universitário, jamais poderíamos imaginar que nos encontraríamos nesta posição. Na verdade, em tempo algum poderíamos considerar que estaríamos agora a tecer semelhantes malhas, pois que pensámos, desde sempre, que tais propósitos não estariam ao nosso alcance, não obstante almejarmos secretamente a idêntica empresa, ainda que unicamente como conjectura. Aconteceu. Estamos deveras felizes por isso e pelo facto de termos, ao menos, tentado e, assim sendo, não nos poderemos lamentar do fracasso, pois pior do que o medo do insucesso é o imobilismo, a ausência de iniciativa. Com efeito, convenhamos, o pior dos fracassos é não tentar sequer. Pretendeu-se com o estágio, na verdade, a consolidação prática dos conhecimentos obtidos durante a parte curricular. O estágio foi, pois, objecto de uma escolha criteriosa por parte do seu opositor, uma vez que se pretendia demonstrar que a edição de texto pode e deve ser aplicada não apenas em casos específicos como sejam as obras literárias ou de outro teor mais técnico ou científico, mas também em outros mundos, como por exemplo em publicações periódicas. A insistência neste tipo de visão não se prende com a pérfida carolice da nossa parte, mas antes com a convicção de que a língua pode e deve ser preservada nas suas formas correctas, mormente se a sua exposição é amplamente elevada. A leitura é um bem essencial nos dias de hoje, seja no acesso à informação, seja enquanto prática lúdica ou profissional, como mais adiante teremos ocasião de nos debruçar. Deste modo, deve ser tido como uma graça fornecer um texto final isento, o mais possível, de erros, sejam eles linguísticos ou de ordem técnico-científica. A responsabilidade inerente à elaboração de uma publicação, independentemente da sua natureza, deve ser, segundo nos parece, ferozmente preservada, pois, a banalização da publicação de textos escritos deve ser encarada como uma benece e não como terreno fértil para a democratização do erro. Tomando como nossas as palavras de Ivo Castro «Do ponto de vista da defesa da língua, talvez seja pior ler uma grande obra mundial em má tradução do que um medíocre romance português»1. O erro não deve, pois, constituír a norma. O erro não deve ganhar vida própria e emancipar-se.
Resumo:
O crescente poder computacional dos dispositivos móveis e a maior eficiência dos navegadores fomentam a construção de aplicações Web mais rápidas e fluídas, através da troca assíncrona de dados em vez de páginas HTML completas. A OutSystems Platform é um ambiente de desenvolvimento usado para a construção rápida e validada de aplicaçõesWeb, que integra numa só linguagem a construção de interfaces de utilizador, lógica da aplicação e modelo de dados. O modelo normal de interação cliente-servidor da plataforma é coerente com o ciclo completo de pedido-resposta, embora seja possível implementar, de forma explícita, aplicações assíncronas. Neste trabalho apresentamos um modelo de separação, baseado em análise estática sobre a definição de uma aplicação, entre os dados apresentados nas páginas geradas pela plataforma e o código correspondente à sua estrutura e apresentação. Esta abordagem permite a geração automática e transparente de interfaces de utilizador mais rápidas e fluídas, a partir do modelo de uma aplicação OutSystems. O modelo apresentado, em conjunto com a análise estática, permite identificar o subconjunto mínimo dos dados a serem transmitidos na rede para a execução de uma funcionalidade no servidor, e isolar a execução de código no cliente. Como resultado da utilização desta abordagem obtém-se uma diminuição muito significativa na transmissão de dados, e possivelmente uma redução na carga de processamento no servidor, dado que a geração das páginasWeb é delegada no cliente, e este se torna apto para executar código. Este modelo é definido sobre uma linguagem, inspirada na da plataforma OutSystems, a partir da qual é implementado um gerador de código. Neste contexto, uma linguagem de domínio específico cria uma camada de abstração entre a definição do modelo de uma aplicação e o respetivo código gerado, tornando transparente a criação de templates clientside e o código executado no cliente e no servidor.
Resumo:
Este trabalho, realizado no âmbito do Interacionismo Sociodiscursivo, combina uma reflexão sobre a noção de género textual com a observação do agir do aluno, em particular, em momentos de escrita do texto expositivo-argumentativo, de correção do trabalho do colega e através de um questionário. É de admitir que uma metodologia descendente, assente num princípio retórico-hermenêutico, defendido por autores como Rastier e Bronkcart, deva estar subjacente ao ensino do género, articulando, o texto, como ponto de partida da aprendizagem, com o ensino da língua.