999 resultados para Traducción automática
Resumo:
O problema dos sistemas de software legados sem documentação ou com documentação obsoleta, continua a ser uma realidade no mundo empresarial. O progressivo aumento da dimensão e complexidade dos sistemas desenvolvidos vem aumentar a necessidade de existirem mecanismos de modelação e documentação de apoio às actividades de manutenção e teste. Apesar da investigação que tem sido levada a cabo para tentar apresentar cada vez melhores abordagens à resolução deste problema,o seu uso no mundo empresarial ainda é muito esparso. Tal deve-se, pelo menos em parte, ao facto de muitas das abordagens propostas acabarem por representar um acrescento do esforço e do tempo, que as organizações não estão em condições de disponibilizar. Esta dissertação contribui com uma abordagem automatizada de suporte às actividades de documentação de sistemas, de manutenção e de testes. Para demonstrar a aplicabilidade e usabilidade da abordagem, propõe-se a implementação de uma ferramenta de apoio. A abordagem proposta baseia-se em técnicas já existentes e consolidadas, mas propõe extensões que permitem melhorar a sua integração,usabilidade e eficiência na sua aplicação. O problema fulcral aqui tratado é a inexistência ou insuficiência de documentação sobre os sistemas desenvolvidos. De modo a mitigar este problema, é apresentado um mecanismo de recuperação da modelação dinâmica de sistemas legados e respectiva geração de artefactos documentais,nomeadamente diagramas de sequência (UML), cartões CRC e matrizes de CRUD. Finalmente, introduzem-se técnicas de rastreabilidade e de apoio a testes de qualidade e cobertura para os sistemas construídos, usando uma metáfora de coloração de diagramas UML.
Resumo:
Sistemas de gestão documental e de recuperação de informação são hoje ferramentas essenciais para aceder aos grandes volumes de informação disponíveis. O exemplo mais popular deste cenário é o motor de pesquisa Google, que se estimava possuir cerca de 45 milhares de milhões de páginas Web, em Março de 2013 [14]. Uma vez que a maioria das pessoas, apenas consultam os primeiros dez resultados duma pesquisa, torna-se crucial conseguir uma boa ordenação das respostas, de forma a permitir que o utilizador veja os resultados contendo informação diversificada, de acordo com as suas preferências e indo ao encontro daquilo que escreveu na pesquisa. Além do objetivo de ordenação segundo a query escrita pelo utilizador, também foi tido como objetivo a remoção de documentos similares do topo dos resultados das pesquisas. Nesta tese, pretendemos investigar o uso de algoritmos de aprendizagem de ordenação de resultados, por forma a aumentar a qualidade dos resultados de topo das pesquisas e analisar algumas maneiras para aumentar a diversidade de informação no topo dos resultados das pesquisas. Uma aplicação foi desenvolvida no contexto desta tese e foi aplicada a um sistema de pesquisa que foi desenvolvido em contexto empresarial com a Quidgest S.A, sendo que posteriormente irá ser integrada numa plataforma de desenvolvimento rápido de aplicações.
Resumo:
Neste trabalho apresenta-se uma metodologia protótipo destinada a efectuar a modelação automática a 2D da morfologia de mineralizações filonianas. Em primeiro lugar procede-se à estimação do número de ocorrências de filões em cada bloco, de uma malha de blocos, em que se subdividiu o volume em estudo. Esta intensidade de ocorrências é quantificada por uma variável que representa o número de filões por metro linear(NFM) intersectados por uma sondagem vertical, e constitui o objectivo de intensidade a atingir. Seguidamente são gerados por simulação, linhas poligonais ou arcos correspondentes ao posicionamento dos filões no perfil. Estes arcos ligam alguns pares de intersecções de filões amostrados nas sondagens e são escolhidos ao acaso segundo regras de orientação e distância. Seguidamente faz-se a avaliação da intensidade local de filões do modelo e, para os locais onde exista défice de filões relativamente ao objectivo, são adicionadas intersecções virtuais, ou seja, que não foram reconhecidas por sondagens. Este procedimento continua até o modelo dos filões se aproximar do objectivo previamente definido. O conjunto dos arcos em cada perfil, associado às espessuras de intersecção observadas nas sondagens, constitui um modelo morfológico dos filões em estrutura vectorial. No final faz-se a avaliação quantitativa do modelo e da incerteza. Os dados do estudo prático que motivaram o desenvolvimento da metodologia foram recolhidos no depósito mineral das Minas da Panasqueira. Os resultados obtidos no estudo mostram que a introdução de uma metodologia automática para a modelação vectorial de filões mineralizados é uma mais-valia, porque permite gerar modelos mais realistas e com melhor controlo geológico e resolução do que as abordagens clássicas de possança e acumulação, constituindo um auxiliar precioso de avaliação de reservas de minério.
Resumo:
O crescente poder computacional dos dispositivos móveis e a maior eficiência dos navegadores fomentam a construção de aplicações Web mais rápidas e fluídas, através da troca assíncrona de dados em vez de páginas HTML completas. A OutSystems Platform é um ambiente de desenvolvimento usado para a construção rápida e validada de aplicaçõesWeb, que integra numa só linguagem a construção de interfaces de utilizador, lógica da aplicação e modelo de dados. O modelo normal de interação cliente-servidor da plataforma é coerente com o ciclo completo de pedido-resposta, embora seja possível implementar, de forma explícita, aplicações assíncronas. Neste trabalho apresentamos um modelo de separação, baseado em análise estática sobre a definição de uma aplicação, entre os dados apresentados nas páginas geradas pela plataforma e o código correspondente à sua estrutura e apresentação. Esta abordagem permite a geração automática e transparente de interfaces de utilizador mais rápidas e fluídas, a partir do modelo de uma aplicação OutSystems. O modelo apresentado, em conjunto com a análise estática, permite identificar o subconjunto mínimo dos dados a serem transmitidos na rede para a execução de uma funcionalidade no servidor, e isolar a execução de código no cliente. Como resultado da utilização desta abordagem obtém-se uma diminuição muito significativa na transmissão de dados, e possivelmente uma redução na carga de processamento no servidor, dado que a geração das páginasWeb é delegada no cliente, e este se torna apto para executar código. Este modelo é definido sobre uma linguagem, inspirada na da plataforma OutSystems, a partir da qual é implementado um gerador de código. Neste contexto, uma linguagem de domínio específico cria uma camada de abstração entre a definição do modelo de uma aplicação e o respetivo código gerado, tornando transparente a criação de templates clientside e o código executado no cliente e no servidor.
Resumo:
Na cadeia de produção de cartografia digital, que se encontra implementada no IGeoE, existe a necessidade de efetuar a restituição de objetos através da vetorização 3D. Sendo este processo completamente manual, o operador identifica e adquire os objetos, em ambiente estereoscópico, segundo as regras estabelecidas nas normas de aquisição. A aquisição de construções, nomeadamente os edifícios, são dos objetos que mais recursos consomem devido à sua frequência e dificuldade de restituição. A possibilidade de simplificar esta parte do processo proporciona um beneficio substancial para toda a cadeia de produção. Pretende-se assim detetar edifícios em fotografias aéreas, extraindo a sua informação planimétrica e altimétrica, para posterior inserção num SIG. Para a obtenção da altimetria são utilizados os princípios de fotogrametria analítica através das equações de colinearidade. Este problema torna-se relevante devido ao facto de se pretender retirar informação de fotografias, que possuem bastante informação, com recurso à computação gráfica, através de técnicas de segmentação em vários níveis e fotogrametria, juntando assim duas áreas do saber. Esta solução permite automatizar um processo que é predominantemente manual, contribuindo para melhorar a cadeia de produção sem a alteração de funcionamento da mesma.
Resumo:
Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.
Resumo:
A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.
Resumo:
Dissertação de mestrado em Engenharia Mecânica
Resumo:
El presente proyecto denominado “EICAR, Electrónica, Informática, Comunicaciones, Automática y Robótica para la Producción de Bienes y Servicios” asocia estratégicamente a un importante grupo de instituciones del sector científico-tecnológico, privado y gobierno con el objetivo de formar recursos humanos altamente capacitados, desarrollar conocimiento y tecnología de punta, en el campo convergente de la electrónica, informática y computación industrial, comunicaciones y automática, y su transferencia para el desarrollo activo de sectores estratégicos del país, a través de la ejecución de seis Programas: 1) Desarrollo de sistemas inteligentes para eficientizar el uso racional de la energía; 2) I+D para el desarrollo de sistemas complejos de aeronáutica y aeroespacio; 3) Desarrollos para la plataforma de TV Digital y su integración a Internet; 4) Trazabilidad de productos agropecuarios y agroindustriales; 5) Elaboración de un plan estratégico para el desarrollo de infraestructura en TICs del Corredor Bioceánico del Centro basado en sistemas GPS y Proyecto Galileo; 6) Monitoreo de las tendencias tecnológicas de los Programas propuestos.
Resumo:
Aquest treball descriu el disseny i avaluació d’una assignatura de quart curs de traducció especialitzada de textos econòmics anglès-espanyol en la que van barrejar estudiants presencials amb assistència regular a classe i estudiants que seguien l’assignatura en format semipresencial. L’enfocament metodològic va ser el del constructivisme social. La plataforma educativa del campus virtual de la Universitat de Vic va servir com a base de la interacció del grup i de les activitats. Per a les traduccions es va utilitzar l’eina de traducció assistida Wordfast. El procediment d’avaluació de les traduccions va intentar afavorir l’autonomia dels estudiants. Es van assajar models d’avaluació en els que es va intentar que la comunitat d’aprenentatge assumís la responsabilitat de la valoració de les traduccions des de criteris professionals. L’assignatura es va impartir durant el primer quadrimestre del curs 2003-2004. Els resultats, que s’inclouen en aquest treball, s’analitzen a partir de les dades que proporcionen les eines següents: - Qüestionari previ als alumnes. - Qüestionari final als alumnes. - Fòrum de debat. - Diari del professor.
Resumo:
Aquest treball de recerca presenta les diferents fases d’un experiment pilot que vaig projectar i realitzar dins l’àmbit de l’ensenyament de la traducció a un context universitari. L’experiment va consistir en l’aplicació i observació d’una metodologia didàctica innovadora, amb una base epistemològica socioconstructivista i humanista, i en l’avaluació dels resultats obtinguts. Per l’experiment pilot vaig seleccionar com a marc teòric el model socioconstructivista del procés d’ensenyament i aprenentatge proposat per Williams i Burden (1997), que integra instàncies constructivistes, interaccionistes i humanistes. En aquest àmbit vaig elaborar una metodologia didàctica innovadora, el “Taller de Traducció”, modelat sobre el Constructivist Workshop proposat per Don Kiraly (2000: 62-64) al qual vaig aportar algunes modificacions per adequar-lo al context diferent d’ensenyament. El disseny experimental basat en la utilització d’un grup experimental i d’un de control, preveu el recurs a instruments de recollida de dades qualitatives i quantitatives. Les hipòtesis elaborades prospecten l’aparició de determinats efectes com a conseqüència de l’aplicació del tractament experimental (autonomia, motivació i presa de consciència) i, al mateix temps es basen en la pressuposició, sustentat sobre la literatura consultada, que els efectes prospectats milloren el procés d’ensenyament i aprenentatge. Per tant, vaig intentar, per una banda, verificar l’eficàcia del tractament relacionada amb l’aparició dels efectes prospectats i, per una altra, mesurar l’incidència d’aquests efectes sobre el procés d’ensenyament i aprenentatge. A més, vaig dur a terme l’observació i avaluació de la metodologia aplicada respecte la coherència amb les bases epistemològiques socioconstructivistes i a la funcionalitat dins el context universitari on es va aplicar. Totes les dades recollides confirmen la coherència i la funcionalitat de la metodologia aplicada, tant pel que fa a l’eficàcia relacionada amb l’aparició dels efectes prospectats a les hipòtesis elaborades i a la seva incidència sobre la millora del procés d’ensenyament i aprenentatge, tot i que es van detectar algunes fallides a l’experiment pilot que se solucionaran a l’experiment definitiu. Els resultats positius de l’experiment pilot han estat confirmades també per les dades d’altres dos experiments realitzats posteriorment amb altres grups d’estudiants de la mateixa assignatura. Tots els resultats recollits es faran servir per projectar l’experiment definitiu, aportant-hi les modificacions necessàries per eliminar les fallides evidenciades durant la fase d’aplicació de l’experiment pilot i de les seves extensions i seguiments, i serviran com a base per a la meva tesi doctoral a la qual voldria arribar a formular una proposta socioconstrucitivista i humanista integradora per a l’ensenyament de la traducció.
Resumo:
El treball pretent establir les bases conceptuals i metodològiques per poder estudiar l’activitat dels traductors i intèrprets realitzada en l’àmbit laboral. En la primera part acunyem el terme “tasca de traducció i interpretació” aplicat a l’anàlisi de l’activitat laboral i analitzem distints contexts d’ús del dit terme. La segona part contè una anàlisi de la metodologia d’enquesta en Traductologia i camps afins, i a més una proposta del diseny d’un estudi empíric amb l’aplicació de l’enquesta sobre tasques de traducció i interpretació exercides en l’àmbit laboral.
Resumo:
RESUM Recepción y difusión internacionales de Mercè Rodoreda: obra original, crítica y traducción té per objecte determinar la recepció i la difusió de l’obra original de Mercè Rodoreda, així com de l’obra crítica i de les traduccions, en el context internacional a partir de la interpretació de quatre bases de dades: obra literària de Mercè Rodoreda, obra crítica de Mercè Rodoreda i la seva obra, traductors i traduccions en funció de la llengua i de l’obra i, per últim, presència documental de Mercè Rodoreda a les Biblioteques Nacionals del món. El treball de recerca s’estructura de la següent manera. En primer lloc, plantegem i delimitem el tema, els objectius, la metodologia i la descripció de les bases de dades. Acte seguit, interpretem les bases de dades i exposem algunes consideracions. A continuació, presentem les conclusions finals que hem desenvolupat en cadascun dels àmbits en els que se centra la nostra recerca, així com el projecte de tesi doctoral i les noves línies de recerca. Per últim, exposem la bibliografia i els annexes, en els que incloem les bases de dades i reproduim els estudis traductològics comentats en el treball. Amb l’elaboració d’aquest treball de recerca pretenem, entre d’altres, donar a conèixer els gèneres literaris que va cultivar Mercè Rodoreda; recopilar l’obra crítica al voltant de l’autora i distingir la seva temàtica per determinar el nombre d’estudis crítics sobre traducció; identificar quins títols de l’obra de Mercè Rodoreda s’han traslladat a altres llengües, així com confirmar quina és l’obra més traduïda i quines les llengües a les que s’ha traslladat la seva obra; i, per últim, constatar la presència d’obres originals, estudis crítics i traduccions a les Biblioteques Nacionals del món i identificar-ne les possibles àrees d’expansió.
Resumo:
El trabajo expuesto en la presente memoria, forma parte de un proyecto de colaboración entre el Centro de Visión por Computador de la UAB y el Centro Joan Amades (ONCE), cuyo objetivo es la creación de recursos educativos que faciliten la integración de niños invidentes en las aulas. Se presenta el proceso de implementación de un intérprete y traductor de documentos escritos en Braille con contenido matemático y de texto, que permite a un profesor que no conozca el sistema Braille, la lectura de documentos creados por alumnos invidentes. Dicho intérprete forma parte de una herramienta que permite el reconocimiento de documentos escritos con una máquina Perkins.
Resumo:
Partint de les mancances quant a salvaguarda de dades presents en un programa de disseny tècnic, es du a terme un estudi de les tècniques necessàries per a solucionar aquestes i es detalla la seva posterior implementació en forma de llibreria. Així, s’aconsegueix oferir les funcionalitats de recuperació de dades, anul·lació d’operacions i històric de canvis, sense afectar de forma apreciable a les prestacions del programari.