903 resultados para traducción automática


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Raquel Merino Álvarez, José Miguel Santamaría, Eterio Pajares (eds.)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta tesis de máster se presenta una metodología para el análisis automatizado de las señales del sonar de largo alcance y una aplicación basada en la técnica de reconocimiento óptico de Optical Character Recognition, caracteres (OCR). La primera contribución consiste en el análisis de imágenes de sonar mediante técnicas de procesamiento de imágenes. En este proceso, para cada imagen de sonar se extraen y se analizan las regiones medibles, obteniendo para cada región un conjunto de características. Con la ayuda de los expertos, cada región es identi cada en una clase (atún o no-atún). De este modo, mediante el aprendizaje supervisado se genera la base de datos y, a su vez, se obtiene un modelo de clasi cación. La segunda contribución es una aplicación OCR que reconoce y extrae de las capturas de pantalla de imágenes de sonar, los caracteres alfanuméricos correspondientes a los parámetros de situación (velocidad, rumbo, localización GPS) y la confi guración de sonar (ganancias, inclinación, ancho del haz). El objetivo de este proceso es el de maximizar la e ficiencia en la detección de atún en el Golfo de Vizcaya y dar el primer paso hacia el desarrollo de un índice de abundancia de esta especie, el cual esté basado en el procesamiento automático de las imágenes de sonar grabadas a bordo de la ota pesquera durante su actividad pesquera rutinaria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Eguíluz, Federico; Merino, Raquel; Olsen, Vickie; Pajares, Eterio; Santamaría, José Miguel (eds.) Cada capítulo de este volúmen está descrito individualmente en este Repositorio, accesibles a través de los enlaces del índice del libro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

J.M.Santamaría, Eterio Pajares, Vickie Olsen, Raquel Merino y Federico Eguíluz (eds.) Cada capítulo de este volúmen está descrito individualmente en este Repositorio, accesibles a través de los enlaces del índice del libro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Eterio Pajares, Raquel Merino y J.M. Santamaría(eds.) Cada capítulo de este volúmen está descrito individualmente en este repositorio, accesibles a través de los enlaces del índice del libro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisa, sob a perspectiva multidimensional adotada nesta pesquisa, o ativismo judicial que ocupa uma postura de supremacia institucional do Poder Judiciário que, dentro de uma dada realidade sociopolítica e constitucional, expande seu poder político-decisório em face dos demais Poderes, manifestando-se em uma ou várias dimensões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente trabajo se centra en un análisis comparativo en varios niveles de las traducciones producidas a partir de la obra teatral Who’s Afraid of Virginia Woolf? (Albee 1962): las de Marcelo De Ridder, José Méndez y Alberto Mira, realizadas con distintos fines y en momentos histórico culturales diferenciados. Asimismo hemos integrado en la comparación la adaptación cinematográfica y los correspondientes textos audiovisuales en inglés y en español, con el fin de ofrecer una visión más inclusiva del modo en que se ha generado esta cadena textual. Para manejar el mencionado corpus, nos hemos valido de herramientas informáticas. Por un lado, el programa TRACEAligner ha resultado de gran utilidad para alinear los textos teatrales. Por otro lado, SubRip ha posibilitado la extracción del subtitulado en inglés y en español del DVD, que después hemos organizado en una tabla bitextual. A través de una metodología fundamentada en estudios de investigación relevantes, hemos examinado el corpus desde una perspectiva extratextual, macroestructural, microestructural e intersistémica. Esto nos ha permitido interrelacionar las traducciones en aspectos tan importantes como los factores contextuales que afectan a su producción, las características de las publicaciones (o del libreto inédito), la transferencia de las unidades estructurales y argumentales, la correspondencia con rasgos de distintos tipos de traducciones, los fenómenos de traducción con mayor incidencia o las adaptaciones derivadas de los procesos de censura. Gracias a la comparación de estos temas, se pueden apreciar las características distintivas de cada texto. Otro asunto que se trata a lo largo del análisis es la identificación del texto fuente de cada traducción, especialmente de la de Méndez. Hemos tratado de demostrar que Méndez parte del texto norteamericano, no de la traducción de Ridder, como se ha sugerido (Espejo 1998: 111 112). Por último, recogemos una serie de conclusiones que pretenden verter luz sobre las cuestiones planteadas en la introducción.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el mundo actual de la traducción, las tecnologías y las herramientas informáticas se han vuelto imprescindibles cuando se trata de aumentar la productividad y garantizar la calidad de las traducciones. De este modo, las herramientas de Traducción Asistida por Ordenador se han convertido en el mejor instrumento para un traductor. En este trabajo, se pretende ahondar en una herramienta TAO, concretamente en Wordfast Anywhere, cuya característica principal consiste en que se puede trabajar en la nube. Además, permite compartir información con otros profesionales de la traducción en cualquier momento. A continuación, se explica el proceso de traducción llevado a cabo con esta herramienta para traducir un texto del euskera al español que se encuentra en la base de datos Nor da Nor – Euskal Itzulpengintzaren datu-basea de EIZIE (Asociación de Traductores, Correctores e Intérpretes de Lengua Vasca). El encargo de traducción en cuestión deriva de las prácticas que he realizado en dicha asociación durante tres meses y en la que se me ha ofrecido la oportunidad de participar en el desarrollo de esta base de datos, además de otras tareas a realizar. A lo largo de este documento, se dan a conocer las peculiaridades de la traducción del euskera al español y las dificultades que estas entrañan. Además, se demostrará que el hecho de que el texto de partida y el de salida compartan un mismo ámbito geográfico determina muchas de las resoluciones adoptadas durante este proceso. En relación a lo mencionado, se presenta la encuesta que se ha realizado entre profesionales de la traducción en el mercado vasco para analizar el uso de las herramientas TAO y su conocimiento de Wordfast Anywhere. Seguidamente, se detallan los resultados obtenidos y las conclusiones derivadas de este estudio. De esta manera, el trabajo se enmarca en el campo de la traducción vasca en diferentes ámbitos y permite el planteamiento de nuevos estudios futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gaur egun hain erabilia den Twitter aplikazioak badu euskarazko bertsioa, baina bertan idazten diren txioak oraindik ezin dira euskaraz atzitu, ez badira euskaraz itzultzen. Beste hizkuntza nagusietan ordea, Twitter aplikazio berak aukera ematen du hizkuntzaz aldatzeko txioen testua, bere elementu eta propietateak mantenduz. Hori da proiektu honen helburua. Txioetan idatzitako testua euskarara itzultzea, txioen formatua mantenduz. Horretarako Twitterren API-a erabiliko dugu, txio eredu ezberdinak jasotzeko, eta ondoren bertako elementuak desberdindu eta itzultzeko, beharrezkoa den heinean. Besteak beste, traolak, erabiltzaileen aipamenak eta RT-eak (berTxioak) duten eragina testuan eta itzulpenean. Txioen testua normalizatzeko aukera desberdinak inplementatu ditugu programan, Matxin web-zerbitzura bidali aurretik eta ondoren lortzen ditugun emaitzak aztertu. Proiektu honek hasiera batetik erakarri zidan, Twitterren API-a erabiltzeko aukera eskaintzen baitu, eta gaur egun lan mundua ikusirik, honelako API ahaltsu bat erabiltzeak asko balio baitu. Bestalde, Gradu amaierako azken urtean izan nuen itzultzaileen funtzionamenduekin lehenengoz harremana, eta ikasgaia aukerazkoa zenez, ez genuen nahi bezain guztia ikusi. Itzultzaileen munduak ere erakartzen zidanez hartu nuen proiektu hau. Amaitu ondoren, esan dezaket nire kuriositatea asetu dudala eta bai itzulpen automatiko bai Twitter API-ekin aplikazioak sortzeko gai naizela. Nire iritzian erabilera handiko produktu bat lortu dugu proiektu honen bidez. Etorkizunari begira, baliabide gehiago inplementatzeko aukerarekin.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gordon E. Moore, co-fundador de Intel, predijo en una publicación del año 1965 que aproximadamente cada dos años se duplicaría el número de transistores presentes en un circuito integrado, debido a las cada vez mejores tecnologías presentes en el proceso de elaboración. A esta ley se la conoce como Ley de Moore y su cumplimiento se ha podido constatar hasta hoy en día. Gracias a ello, con el paso del tiempo cada vez se presentan en el mercado circuitos integrados más potentes, con mayores prestaciones para realizar tareas cada vez más complejas. Un tipo de circuitos integrados que han podido evolucionar de forma importante por dicho motivo, son los dispositivos de lógica programable, circuitos integrados que permiten implementar sobre ellos las funciones lógicas que desee implementar el usuario. Hasta hace no muchos años, dichos dispositivos eran capaces de implementar circuitos compuestos por unas pocas funciones lógicas, pero gracias al proceso de miniaturización predicho por la Ley de Moore, hoy en día son capaces de implementar circuitos tan complejos como puede ser un microprocesador; dichos dispositivos reciben el nombre de FPGA, siglas de Field Programmable Gate Array. Debido a la mayor capacidad y por lo tanto a diseños más complejos implementados sobre las FPGA, en los últimos años han aparecido herramientas cuyo objetivo es hacer más fácil el proceso de ingeniería dentro de un desarrollo en este tipo de dispositivos, como es la herramienta HDL Coder de la compañía MathWorks, creadores también Matlab y Simulink, unas potentes herramientas usadas ampliamente en diferentes ramas de la ingeniería. El presente proyecto tiene como objetivo evaluar el uso de dicha herramienta para el procesado digital de señales, usando para ello una FPGA Cyclone II de la casa Altera. Para ello, se empezará analizando la herramienta escogida comparándola con herramientas de la misma índole, para a continuación seleccionar una aplicación de procesado digital de señal a implementar. Tras diseñar e implementar la aplicación escogida, se deberá simular en PC para finalmente integrarla en la placa de evaluación seleccionada y comprobar su correcto funcionamiento. Tras analizar los resultados de la aplicación de implementada, concretamente un analizador de la frecuencia fundamental de una señal de audio, se ha comprobado que la herramienta HDL Coder, es adecuada para este tipo de desarrollos, facilitando enormemente los procesos tanto de implementación como de validación gracias al mayor nivel de abstracción que aporta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Editoras Rosa Rabadán; Trinidad Guzmán; Marisa Fernández.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ES]El proyecto descrito en este documento consiste en la investigación sobre la viabilidad de detección automática de pulso y respiración a partir de la señal de aceleración, medida mediante un acelerómetro posicionado bien en la carótida o en el pecho del paciente. El motivo de la utilización de la aceleración está principalmente en el bajo costo y por la tecnología sencilla de los acelerómetros. En este documento se explica cómo se ha montado una plataforma para la adquisición de las señales de aceleración y el electrocardiograma emitido por el corazón, en sujetos sanos. Con la base de señales adquirida se ha diseñado un método basado en el dominio de la frecuencia para detectar la presencia de pulso y respiración. Los resultados son prometedores y confirman la posibilidad de desarrollar estos detectores. Las herramientas desarrolladas podrán ser utilizadas para análisis futuros y para seguir avanzando en este estudio.